diff --git a/FAQ.md b/FAQ.md new file mode 100644 index 000000000..22747e539 --- /dev/null +++ b/FAQ.md @@ -0,0 +1,142 @@ +## (一)换源 + +关于换源的更多内容,可以参考 + +1. [PyPI 软件仓库镜像使用帮助](https://help.mirrors.cernet.edu.cn/pypi/) +2. [TUNA Anaconda 镜像使用帮助](https://mirrors.tuna.tsinghua.edu.cn/help/anaconda/) + +### 1. conda更换镜像源 + +​ Anaconda换源主要有两种:在Anaconda Prompt/Terminal换源以及修改`.condarc`文件。 + +#### 1.1 在终端使用指令换源 + +步骤一:打开Anaconda Prompt(如下图)/ Linux Terminal + +步骤二:依次输入以下指令 + +``` +conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main +conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r +conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2 +conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch +conda config --set show_channel_urls yes +``` + +步骤三:运行 `conda clean -i` 清除索引缓存,保证用的是镜像站提供的索引。 + +#### 1.2 修改`.condarc`文件 + +步骤一:找到`.condarc` + +1. Windows + 1. Windows 用户无法直接创建名为 `.condarc` 的文件,可先执行 `conda config --set show_channel_urls yes` 生成该文件之后再修改。 + 2. C盘找到`.condarc`文件,路径大致为`C:\Users\(用户名)\.condarc` +2. Linux/macOS文件路径大致在`${HOME}/.condarc`(`~/.condarc`) + +步骤二:修改利用记事本或者vim/emacs/其他工具打开该文件,将其中内容改为以下: + +``` +channels: + - defaults +show_channel_urls: true +default_channels: + - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main + - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r + - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2 +custom_channels: + conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud + msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud + bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud + menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud + pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud + pytorch-lts: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud + simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud + deepmodeling: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/ +``` + +步骤三:运行 `conda clean -i` 清除索引缓存,保证用的是镜像站提供的索引。 + +步骤四:查看/删除当前使用的镜像源 + +``` +conda config --show channels # 查看anaconda已存在的源 +conda config --set show_channel_urls yes # 设置搜索时显示的通道地址 +conda config --remove-key channels # 删除已存在的镜像源 +``` + + + +### 2. pip更换镜像源方法 + +国内常见的镜像源网址如下: + +1. 清华大学:https://pypi.tuna.tsinghua.edu.cn/simple/ +2. 中国科学技术大学:https://pypi.mirrors.ustc.edu.cn/simple/ +3. 阿里云:https://mirrors.aliyun.com/pypi/simple/ +4. 豆瓣:https://pypi.douban.com/simple/ + +首先,我们可以在终端输入以下命令,查看我们当前使用的是哪个镜像源: + +```shell +pip config get global.index-url # 查看当前默认的pip源地址 +``` + +我们将在下面以替换清华源为例进行介绍,主要介绍临时更换和永久更换。 + +1. 临时更换 + + 如果在安装时只想临时更换镜像源,可以直接在安装指令后添加`-i https://pypi.tuna.tsinghua.edu.cn/simple` + + 例如 `pip install opencv-python -i https://pypi.tuna.tsinghua.edu.cn/simple` + +2. 永久更换(terminal更换) + + 在window下,我们可以WIN+R输入CMD。在Linux下,我们可以打开终端,输入以下指令 + + ```shell + python -m pip install --upgrade pip #将pip更新至最新版本 + pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple + ``` + + 想要永久更换,我们也可以直接修改配置文件即可。 + +3. 永久更换(修改配置文件) + + 1. 步骤一: + + Win系统:在`User\pip\pip.ini`路径下新建`pip.ini`文件 + + Linux系统:在`~/.pip/pip.conf`路径下新建`pip.conf`文件 + + 2. 步骤二: + + 打开文件建立的文件,输入以下内容,并保存。 + + ```shell + [global] + trusted-host=pypi.tuna.tsinghua.edu.cn + index-url=https://pypi.tuna.tsinghua.edu.cn/simple + ``` + + +### 3. 换源安装pytorch + +1. pip安装临时换源 + +```shell +pip install torch torchvision -i 镜像地址 +# 指定版本换清华源安装示例 +#pip install torch==1.9.1+cu111 torchvision==0.10.1+cu111 torchaudio==0.9.1 -f https://download.pytorch.org/whl/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple +``` + +2. conda安装临时换源 + +```shell +conda install pytorch torchvision torchaudio –c 镜像地址 +conda install cudatoolkit=版本–c 镜像地址 + +# 指定版本换清华源安装示例 +# conda install pytorch==1.10.0 torchvision==0.11.0 torchaudio==0.10.0 –c https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/win-64/ +# conda install cudatoolkit=11.3 –c https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main +``` diff --git a/Makefile b/Makefile deleted file mode 100644 index d0c3cbf10..000000000 --- a/Makefile +++ /dev/null @@ -1,20 +0,0 @@ -# Minimal makefile for Sphinx documentation -# - -# You can set these variables from the command line, and also -# from the environment for the first two. -SPHINXOPTS ?= -SPHINXBUILD ?= sphinx-build -SOURCEDIR = source -BUILDDIR = build - -# Put it first so that "make" without argument is like "make help". -help: - @$(SPHINXBUILD) -M help "$(SOURCEDIR)" "$(BUILDDIR)" $(SPHINXOPTS) $(O) - -.PHONY: help Makefile - -# Catch-all target: route all unknown targets to Sphinx using the new -# "make mode" option. $(O) is meant as a shortcut for $(SPHINXOPTS). -%: Makefile - @$(SPHINXBUILD) -M $@ "$(SOURCEDIR)" "$(BUILDDIR)" $(SPHINXOPTS) $(O) diff --git a/README.md b/README.md index f648afde1..751dd08f9 100644 --- a/README.md +++ b/README.md @@ -1,129 +1,106 @@ # 深入浅出PyTorch -**在线阅读地址**:https://datawhalechina.github.io/thorough-pytorch/ - -**配套视频教程**:https://www.bilibili.com/video/BV1L44y1472Z - -## 一、项目初衷 - -PyTorch是利用深度学习进行数据科学研究的重要工具,在灵活性、可读性和性能上都具备相当的优势,近年来已成为学术界实现深度学习算法最常用的框架。 - -考虑到PyTorch的学习兼具理论储备和动手训练,两手都要抓两手都要硬的特点,我们开发了《深入浅出PyTorch》课程,期望以组队学习的形式,帮助大家从入门到熟练掌握PyTorch工具,进而实现自己的深度学习算法。 - -我们的愿景是:通过组队学习,大家能够掌握由浅入深地PyTorch的基本知识和内容,经过自己的动手实践加深操作的熟练度。同时通过项目实战,充分锻炼编程能力,掌握PyTorch进行深度学习的基本流程,提升解决实际问题的能力。 - -学习的先修要求是,会使用Python编程,了解包括神经网络在内的机器学习算法,勤于动手实践。 - -《深入浅出PyTorch》是一个系列,一共有三个部分。已经上线的是本系列的第一、二部分,后续会不断更新《深入浅出PyTorch》(下),给出更贴合实际应用的实战案例。 - -## 二、内容简介 -- 第零章:前置知识(选学) - - 人工智能简史 - - 相关评价指标 - - 常用包的学习 - - Jupyter相关操作 -- 第一章:PyTorch的简介和安装 - - PyTorch简介 - - PyTorch的安装 - - PyTorch相关资源简介 -- 第二章:PyTorch基础知识 - - 张量及其运算 - - 自动求导简介 - - 并行计算、CUDA和cuDNN简介 -- 第三章:PyTorch的主要组成模块 - - 思考:完成一套深度学习流程需要哪些关键环节 - - 基本配置 - - 数据读入 - - 模型构建 - - 损失函数 - - 优化器 - - 训练和评估 - - 可视化 -- 第四章:PyTorch基础实战 - - 基础实战——Fashion-MNIST时装分类 - - 基础实战——果蔬分类实战(notebook) -- 第五章:PyTorch模型定义 - - 模型定义方式 - - 利用模型块快速搭建复杂网络 - - 模型修改 - - 模型保存与读取 -- 第六章:PyTorch进阶训练技巧 - - 自定义损失函数 - - 动态调整学习率 - - 模型微调-torchvision - - 模型微调-timm - - 半精度训练 - - 数据扩充 - - 超参数的修改及保存 - - PyTorch模型定义与进阶训练技巧 -- 第七章:PyTorch可视化 - - 可视化网络结构 - - 可视化CNN卷积层 - - 使用TensorBoard可视化训练过程 - - 使用wandb可视化训练过程 -- 第八章:PyTorch生态简介 - - 简介 - - 图像—torchvision - - 视频—PyTorchVideo - - 文本—torchtext - - 音频-torchaudio -- 第九章:模型部署 - - 使用ONNX进行部署并推理 -- 第十章:常见网络代码的解读(推进中) - - 计算机视觉 - - 图像分类 - - ResNet源码解读 - - Swin Transformer源码解读 - - Vision Transformer源码解读 - - RNN源码解读 - - LSTM源码解读及其实战 - - 目标检测 - - YOLO系列解读(与MMYOLO合作) - - 图像分割 - - 自然语言处理 - - RNN源码解读 - - 音频处理 - - 视频处理 - - 其他 - - - -## 三、人员安排 -| 成员  | 个人简介 | 个人主页 | -| --------------- | --------------------------------------------------- | -------------------------------------------------- | -| 牛志康 | DataWhale成员,西安电子科技大学本科生 | [[知乎](https://www.zhihu.com/people/obeah-82)][[个人主页](https://nofish-528.github.io/)] | -| 李嘉骐 | DataWhale成员,清华大学研究生 | [[知乎](https://www.zhihu.com/people/li-jia-qi-16-9/posts)] | -| 刘洋 | Datawhale成员,中国科学院数学与系统科学研究所研究生 | [[知乎](https://www.zhihu.com/people/ming-ren-19-34/asks)] | -| 陈安东 | DataWhale成员,中央民族大学研究生 | [[个人主页](https://andongblue.github.io/chenandong.github.io/)] | - -教程贡献情况(已上线课程内容): - -李嘉骐:第三章;第四章;第五章;第六章;第七章;第八章;内容整合 - -牛志康:第一章;第三章;第六章;第七章;第八章,第九章,第十章;文档部署 - -刘洋:第二章;第三章 - -陈安东:第二章;第三章;第七章 - -## 四、 课程编排与配套视频 -
- -部分章节直播讲解请观看B站回放(持续更新):https://www.bilibili.com/video/BV1L44y1472Z - -- 课程编排: - 深入浅出PyTorch分为三个阶段:PyTorch深度学习基础知识、PyTorch进阶操作、PyTorch案例分析。 - -- 使用方法: - - 我们的课程内容都以markdown格式或jupyter notebook的形式保存在本仓库内。除了多看加深课程内容的理解外,最重要的还是动手练习、练习、练习 - -- 组队学习安排: - - 第一部分:第一章到第四章,学习周期:10天; - - 第二部分:第五章到第八章,学习周期:11天 -
+**在线阅读地址**:[深入浅出PyTorch-在线阅读](https://datawhalechina.github.io/thorough-pytorch/) + +**配套视频教程**:[深入浅出PyTorch-bilibili视频](https://www.bilibili.com/video/BV1L44y1472Z) + +## 一、项目简介 + +### 项目介绍及预期目标 + +欢迎来到thorough-PyTorch教程,这是一个专为希望在人工智能、数据科学等领域使用深度学习进行研究的学习者设计的课程。PyTorch以其灵活性、可读性和优越性能成为深度学习主流的框架。但是现有的PyTorch教程大部分为英文官方教程或只是某几个任务的特定教程,并不存在一个较为完整的中文PyTorch教程,为了能帮助更好的同学入门PyTorch,我们推出了thorough-PyTorch教程。 + +我们希望通过理论学习和实践操作的结合,帮助你从入门到熟练地掌握PyTorch工具,让你在理解深度学习的基本概念和实现技术的同时,能够通过动手实践提高你的技能熟练度。 + +我们的预期目标是,通过本教程,你不仅能够透彻理解PyTorch的基本知识和内容,也能通过项目实战磨练你的编程技能,从而更好地应用PyTorch进行深度学习,提高解决实际问题的能力。无论你是初学者还是已有一定基础的学习者,我们都将带领你深入理解并掌握PyTorch,让你在数据科学的道路上更进一步。 + +### 面向对象及前置技能 + +- 适用于所有具备基础 Python 能力,想要入门 PyTorch 的AI从业者,同学。 +- 我们希望你具有基础的数理知识,深度学习基础知识,Python编程基础和使用搜索引擎解决问题的能力。 + +### 教程使用的环境 + +我们的教程在以下的环境下均进行测试过,我们建议在安装python时,安装3.8以上的版本,同时尽量使用Linux机器进行学习(Windows也可以) + +1. torch2.0.1+cpu / Windows11 / python3.9.17 +2. torch1.12+cu113 / Ubuntu 20.04 / python 3.9.18 +3. torch2.0.1+cu118 / Ubuntu 20.04 / python 3.9.18 + +### 教程的答疑 + +1. 我们会记录大家在学习中遇到的一些问题并汇聚在FAQ(Frequently Asked Questions)文档中,在提issue前可以查看FAQ文档。我们也欢迎大家把自己遇到的问题Pull request至FAQ文档中。 +2. 关于出现的问题,欢迎大家在[issues](https://github.com/datawhalechina/thorough-pytorch/issues)提问,一个好的问题应该包括:BUG的完整电脑截图,清晰的问题描述,已经在Google/ChatGPT上进行自我查找过问题的解决方案。 + +## 二、内容大纲 + +### 相关前置知识[选学] + +1. 基础数理知识 +2. 反向求导 +3. 相关评价指标 +4. Jupyter相关操作 + +### 一、PyTorch的简介和安装 + +1. PyTorch简介与安装 +2. Tensor的简介 +3. 自动求导机制 + +### 二、PyTorch的主要组成模块 + +1. 引言:一个深度学习项目的组成 +2. 数据读取 +3. 模型构建 +4. 模型初始化 +5. 损失函数 +6. 优化器 +7. 训练与评估 +8. 模型的保存和读取 +9. 模型性能的评价 + +### 三、PyTorch计算机视觉基础实战 + +1. 基础实战——Fashion-MNIST时装分类 +2. 基础实战——果蔬分类实战(notebook) +3. 基础实战——UNet图像分割 + +### 四、PyTorch自然语言处理基础实战 + +1. 基础实战——RNN/LSTM +2. 基础实战——Transformer-machine translation实战 + +### 五、PyTorch进阶实战 + +1. GPT2实战详解 + + + +## 三、贡献者 + +**贡献者** + +- @[牛志康-核心贡献者](https://github.com/NoFish-528)(Datawhale成员-西安电子科技大学本科生) +- @[李嘉骐-核心贡献者](https://github.com/LiJiaqi96)(Datawhale成员-清华大学研究生) +- @[陈安东-贡献者](https://github.com/andongBlue)(Datawhale成员-哈尔滨工业大学博士生) +- @[刘洋-贡献者](https://github.com/liu-yang-maker)(Datawhale成员-中国科学院数学与系统科学研究所研究生) +- @[徐茗-贡献者](https://github.com/laffycat)(Datawhale成员-北京邮电大学本科生) +- @[邹雨衡-贡献者](https://github.com/logan-zou)(Datawhale成员-对外经济贸易大学研究生) +- @[潘笃驿-贡献者](https://github.com/limafang)(Datawhale成员-西安电子科技大学本科生) +- @[李鑫-贡献者](https://github.com/Mr-atomer)(Datawhale成员-西安电子科技大学本科生) + +**其他** + +- 非常感谢DataWhale成员 叶前坤 @[PureBuckwheat](https://github.com/PureBuckwheat) 和 胡锐锋 @[Relph1119](https://github.com/Relph1119) 对文档的细致校对! +- 关于本教程有任何意见与建议可发邮件至nzk020109@gmail.com,主题命名为**PyTorch教程建议**开头 + + + + + +Made with [contrib.rocks](https://contrib.rocks). + +## 四、关于贡献 -## 五、关于贡献
本项目使用`Forking`工作流,具体参考[atlassian文档](https://www.atlassian.com/git/tutorials/comparing-workflows/forking-workflow)大致步骤如下: @@ -131,8 +108,9 @@ PyTorch是利用深度学习进行数据科学研究的重要工具,在灵活 1. 在GitHub上Fork本仓库 2. Clone Fork后的个人仓库 3. 设置`upstream`仓库地址,并禁用`push` -4. 使用分支开发,课程分支名为`lecture{#NO}`,`#NO`保持两位,如`lecture07`,对应课程目录 -5. PR之前保持与原始仓库的同步,之后发起PR请求 +4. 使用分支开发,课程分支名为`ch{#NO}`,`#NO`保持两位,如`ch07`,对应课程目录 +5. PR之前保持与原始仓库的同步,之后发起PR请求。 +6. 对 PR 不熟悉的同学,可以查阅[第一次参与开源](https://github.com/firstcontributions/first-contributions/blob/main/translations/README.zh-cn.md)中的流程。 命令示例: @@ -152,16 +130,16 @@ git remote -v # upstream git@github.com:datawhalechina/thorough-pytorch.git (fetch) # upstream DISABLE (push) # do your work -git checkout -b lecture07 +git checkout -b ch07 # 根据实际情况修改分支 # edit and commit and push your changes -git push -u origin lecture07 +git push -u origin ch07 # keep your fork up to date ## fetch upstream main and merge with forked main branch git fetch upstream git checkout main git merge upstream/main ## rebase brach and force push -git checkout lecture07 +git checkout ch07 git rebase main git push -f ``` @@ -181,49 +159,8 @@ git push -f `others`包括非课程相关的改动,如本`README.md`中的变动,`.gitignore`的调整等。
-## 六、更新计划 -
- -| 内容 | 更新时间 |内容| -| :---- | :---- |:----:| -|apex| |apex的简介和使用| -|模型部署| |Flask部署PyTorch模型| -|TorchScript| |TorchScript| -|并行训练| |并行训练 | -|模型预训练 - torchhub| |torchhub的简介和使用方法| -|目标检测 - SSD| |SSD的简介和实现| -|目标检测 - RCNN系列| |Fast-RCNN & Mask-RCNN| -|目标检测 - DETR| |DETR的实现| -|图像分类 - GoogLeNet| |GoogLeNet的介绍与实现| -|图像分类 - MobileNet系列| |MobileNet系列介绍与实现| -|图像分类 - GhostNet| |GhostNet代码讲解| -|生成式对抗网络 - 生成手写数字实战| |生成数字并可视化| -|生成式对抗网络 - DCGAN| || -|风格迁移 - StyleGAN| || -|生成网络 - VAE| || -|图像分割 Deeplab系列| |Deeplab系列代码讲解| -|自然语言处理 LSTM| |LSTM情感分析实战| -|自然语言处理 Transformer| || -|自然语言处理 BERT| || -|视频| | 待定| -|音频| | 待定| -|自定义CUDA扩展和算子||| -
- -## 七、鸣谢与反馈 -- 非常感谢DataWhale成员 叶前坤 @[PureBuckwheat](https://github.com/PureBuckwheat) 和 胡锐锋 @[Relph1119](https://github.com/Relph1119) 对文档的细致校对! -- 如果有任何想法可以联系我们DataWhale也欢迎大家多多提出issue。 -- 特别感谢以下为教程做出贡献的同学!并特别感谢MMYOLO的贡献者们! - - - - - - -Made with [contrib.rocks](https://contrib.rocks). - -## 八、关注我们 +## 五、关注我们
Datawhale是一个专注AI领域的开源组织,以“for the learner,和学习者一起成长”为愿景,构建对学习者最有价值的开源学习社区。关注我们,一起学习成长。
## LICENSE diff --git a/docs/.buildinfo b/docs/.buildinfo deleted file mode 100644 index bd2676b4b..000000000 --- a/docs/.buildinfo +++ /dev/null @@ -1,4 +0,0 @@ -# Sphinx build info version 1 -# This file hashes the configuration used when building these files. When it is not found, a full rebuild will be done. -config: 8928221afc1d1d56cef1695f1568cc7e -tags: 645f666f9bcd5a90fca523b33c5a78b7 diff --git a/docs/_images/Pycharm.png b/docs/_images/Pycharm.png deleted file mode 100644 index d82759081..000000000 Binary files a/docs/_images/Pycharm.png and /dev/null differ diff --git a/docs/_images/block1.jpg b/docs/_images/block1.jpg deleted file mode 100644 index bf19c21b2..000000000 Binary files a/docs/_images/block1.jpg and /dev/null differ diff --git a/docs/_images/check_linux.png b/docs/_images/check_linux.png deleted file mode 100644 index 6ca21ab99..000000000 Binary files a/docs/_images/check_linux.png and /dev/null differ diff --git a/docs/_images/env_list.png b/docs/_images/env_list.png deleted file mode 100644 index 0be724a96..000000000 Binary files a/docs/_images/env_list.png and /dev/null differ diff --git a/docs/_images/envs1.png b/docs/_images/envs1.png deleted file mode 100644 index 00a5b175f..000000000 Binary files a/docs/_images/envs1.png and /dev/null differ diff --git a/docs/_images/envs2.png b/docs/_images/envs2.png deleted file mode 100644 index a0908ee48..000000000 Binary files a/docs/_images/envs2.png and /dev/null differ diff --git a/docs/_images/expansion1.jpg b/docs/_images/expansion1.jpg deleted file mode 100644 index dac81012a..000000000 Binary files a/docs/_images/expansion1.jpg and /dev/null differ diff --git a/docs/_images/shortcut1.jpg b/docs/_images/shortcut1.jpg deleted file mode 100644 index 3ee3589b5..000000000 Binary files a/docs/_images/shortcut1.jpg and /dev/null differ diff --git a/docs/_images/source_ok.png b/docs/_images/source_ok.png deleted file mode 100644 index 1abd42b66..000000000 Binary files a/docs/_images/source_ok.png and /dev/null differ diff --git a/docs/_sources/index.md.txt b/docs/_sources/index.md.txt deleted file mode 100644 index 5ccdc2d7d..000000000 --- a/docs/_sources/index.md.txt +++ /dev/null @@ -1,157 +0,0 @@ -# 深入浅出PyTorch -PyTorch是利用深度学习进行数据科学研究的重要工具,在灵活性、可读性和性能上都具备相当的优势,近年来已成为学术界实现深度学习算法最常用的框架。 - -考虑到PyTorch的学习兼具理论储备和动手训练,两手都要抓两手都要硬的特点,我们开发了《深入浅出PyTorch》课程,期望以组队学习的形式,帮助大家从入门到熟练掌握PyTorch工具,进而实现自己的深度学习算法。 - -我们的愿景是:通过组队学习,大家能够掌握由浅入深地PyTorch的基本知识和内容,经过自己的动手实践加深操作的熟练度。同时通过项目实战,充分锻炼编程能力,掌握PyTorch进行深度学习的基本流程,提升解决实际问题的能力。 - -学习的先修要求是,会使用Python编程,了解包括神经网络在内的机器学习算法,勤于动手实践。 - -《深入浅出PyTorch》是一个系列,一共有三个部分。已经上线的是本系列的第一、二部分,后续会不断更新《深入浅出PyTorch》(下),给出更贴合实际应用的实战案例。 - -```{toctree} -:maxdepth: 2 -:caption: 目录 -第零章/index -第一章/index -第二章/index -第三章/index -第四章/index -第五章/index -第六章/index -第七章/index -第八章/index -第九章/index -第十章/index -``` - -## 人员安排 -| 成员  | 个人简介 | 个人主页 | -| --------------- | --------------------------------------------------- | -------------------------------------------------- | -| 牛志康 | DataWhale成员,西安电子科技大学本科生 | [[知乎](https://www.zhihu.com/people/obeah-82)][[个人主页](https://nofish-528.github.io/)] | -| 李嘉骐 | DataWhale成员,清华大学研究生 | [[知乎](https://www.zhihu.com/people/li-jia-qi-16-9/posts)] | -| 刘洋 | Datawhale成员,中国科学院数学与系统科学研究所研究生 | [[知乎](https://www.zhihu.com/people/ming-ren-19-34/asks)] | -| 陈安东 | DataWhale成员,中央民族大学研究生 | [[个人主页](https://andongblue.github.io/chenandong.github.io/)] | - -教程贡献情况(已上线课程内容): - -李嘉骐:第三章;第四章;第五章;第六章;第七章;第八章;内容整合 - -牛志康:第一章;第三章;第六章;第七章;第八章,第九章,第十章;文档部署 - -刘洋:第二章;第三章 - -陈安东:第二章;第三章;第七章 - -## 四、 课程编排与使用方法 - -部分章节直播讲解请观看B站回放(持续更新):https://www.bilibili.com/video/BV1L44y1472Z - -- 课程编排: - 深入浅出PyTorch分为三个阶段:PyTorch深度学习基础知识、PyTorch进阶操作、PyTorch案例分析。 - -- 使用方法: - - 我们的课程内容都以markdown格式或jupyter notebook的形式保存在本仓库内。除了多看加深课程内容的理解外,最重要的还是动手练习、练习、练习 - -- 组队学习安排: - - 第一部分:第一章到第四章,学习周期:10天; - - 第二部分:第五章到第八章,学习周期:11天 - -## 五、关于贡献 - -本项目使用`Forking`工作流,具体参考[atlassian文档](https://www.atlassian.com/git/tutorials/comparing-workflows/forking-workflow) - -大致步骤如下: - -1. 在GitHub上Fork本仓库 -1. Clone Fork后的个人仓库 -1. 设置`upstream`仓库地址,并禁用`push` -1. 使用分支开发,课程分支名为`lecture{#NO}`,`#NO`保持两位,如`lecture07`,对应课程目录 -1. PR之前保持与原始仓库的同步,之后发起PR请求 - -命令示例: - -```shell -# fork -# clone -git clone git@github.com:USERNAME/thorough-pytorch.git -# set upstream -git remote add upstream git@github.com:datawhalechina/thorough-pytorch.git -# disable upstream push -git remote set-url --push upstream DISABLE -# verify -git remote -v -# some sample output: -# origin git@github.com:NoFish-528/thorough-pytorch.git (fetch) -# origin git@github.com:NoFish-528/thorough-pytorch.git (push) -# upstream git@github.com:datawhalechina/thorough-pytorch.git (fetch) -# upstream DISABLE (push) -# do your work -git checkout -b lecture07 -# edit and commit and push your changes -git push -u origin lecture07 -# keep your fork up to date -## fetch upstream main and merge with forked main branch -git fetch upstream -git checkout main -git merge upstream/main -## rebase brach and force push -git checkout lecture07 -git rebase main -git push -f -``` - -### Commit Message - -提交信息使用如下格式:`: ` - -``` -: - │ │ - │ └─⫸ Summary in present tense. Not capitalized. No period at the end. - │ - └─⫸ Commit Type: lecture{#NO}|others -``` - -`others`包括非课程相关的改动,如本`README.md`中的变动,`.gitignore`的调整等。 - -## 六、更新计划 -| 内容 | 更新时间 |内容| -| :---- | :---- |:----:| -|visdom可视化| |`Visdom`的使用| -|apex| |apex的简介和使用| -|模型部署| |Flask部署PyTorch模型| -|TorchScript| |TorchScript| -|并行训练| |并行训练 | -|模型预训练 - torchhub| 2022.4.16 |torchhub的简介和使用方法| -|目标检测 - SSD| |SSD的简介和实现| -|目标检测 - RCNN系列| |Fast-RCNN & Mask-RCNN| -|目标检测 - DETR| |DETR的实现| -|图像分类 - GoogLeNet| 2022.5.11 |GoogLeNet的介绍与实现| -|图像分类 - MobileNet系列| 2022.4月|MobileNet系列介绍与实现| -|图像分类 - GhostNet| 2022.4月 |GhostNet代码讲解| -|生成式对抗网络 - 生成手写数字实战| 2022.5.25 |生成数字并可视化| -|生成式对抗网络 - DCGAN| || -|风格迁移 - StyleGAN| || -|生成网络 - VAE| || -|图像分割 Deeplab系列| |Deeplab系列代码讲解| -|自然语言处理 LSTM| |LSTM情感分析实战| -|自然语言处理 Transformer| || -|自然语言处理 BERT| || -|视频| | 待定| -|音频| | 待定| -|自定义CUDA扩展和算子||| -## 七、鸣谢与反馈 - -- 非常感谢DataWhale成员 叶前坤 @[PureBuckwheat](https://github.com/PureBuckwheat) 和 胡锐锋 @[Relph1119](https://github.com/Relph1119) 对文档的细致校对! -- 如果有任何想法可以联系我们DataWhale也欢迎大家多多提出issue。 - - -## 八、关注我们 -
Datawhale是一个专注AI领域的开源组织,以“for the learner,和学习者一起成长”为愿景,构建对学习者最有价值的开源学习社区。关注我们,一起学习成长。
- -## LICENSE -知识共享许可协议
本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。 diff --git "a/docs/_sources/\347\254\254\344\270\200\347\253\240/1.1 PyTorch\347\256\200\344\273\213.md.txt" "b/docs/_sources/\347\254\254\344\270\200\347\253\240/1.1 PyTorch\347\256\200\344\273\213.md.txt" deleted file mode 100644 index ff5db9d58..000000000 --- "a/docs/_sources/\347\254\254\344\270\200\347\253\240/1.1 PyTorch\347\256\200\344\273\213.md.txt" +++ /dev/null @@ -1,28 +0,0 @@ -# 1.1 PyTorch简介 - -PyTorch是由Meta AI(Facebook)人工智能研究小组开发的一种基于Lua编写的Torch库的Python实现的深度学习库,目前被广泛应用于学术界和工业界,相较于Tensorflow2.x,PyTorch在API的设计上更加简洁、优雅和易懂。因此本课程我们选择PyTorch来进行开源学习。 - -经过本节的学习,你将收获: - -- 了解PyTorch的发展流程 -- 了解PyTorch相较于其他框架的优势 - - -## 1.1.1 PyTorch的发展 - -**“All in PyTorch”**,对于PyTorch的发展我们只能用一句话来概况了,PyTorch自从推出就获得巨大的关注并受到了很多人的喜欢,而最直观的莫过于下面数据所表现的简明直了。 - -下图来自[Paper with code](https://paperswithcode.com/trends)网站,**颜色面积代表使用该框架的论文公开代码库的数量**,我们可以发现截至2021年6月,PyTorch的代码实现已经是TensorFlow实现的4倍,我们也可以看红色部分的PyTorch正在取代他的老大哥称霸学术圈,PyTorch会借助ONNX所带来的落地能力在工业界逐渐走向主导地位。 - -总的来说,我们必须承认到现在为止PyTorch 1.x还是有不如别的框架的地方,但是我们相信PyTorch 2.x版本会给我们带来更大的惊喜。 - -![框架对比图](figures/main_compare.png) - -## 1.1.2 PyTorch的优势 -+ **更加简洁**,相比于其他的框架,PyTorch的框架更加简洁,易于理解。PyTorch的设计追求最少的封装,避免重复造轮子。 -+ **上手快**,掌握numpy和基本的深度学习知识就可以上手。 -+ PyTorch有着**良好的文档和社区支持**,作者亲自维护的论坛供用户交流和求教问题。Meta AI(Facebook AI)对PyTorch提供了强力支持,作为当今排名前三的深度学习研究机构,MAIR的支持足以确保PyTorch获得持续的开发更新。 -+ **项目开源**,在Github上有越来越多的开源代码是使用PyTorch进行开发。 -+ 可以**更好的调试代码**,PyTorch可以让我们逐行执行我们的脚本。这就像调试NumPy一样 – 我们可以轻松访问代码中的所有对象,并且可以使用打印语句(或其他标准的Python调试)来查看方法失败的位置。 -+ 越来越完善的扩展库,活力旺盛,正处在**当打之年**。 - diff --git "a/docs/_sources/\347\254\254\344\270\200\347\253\240/1.2 PyTorch\347\232\204\345\256\211\350\243\205.md.txt" "b/docs/_sources/\347\254\254\344\270\200\347\253\240/1.2 PyTorch\347\232\204\345\256\211\350\243\205.md.txt" deleted file mode 100644 index 69486b9aa..000000000 --- "a/docs/_sources/\347\254\254\344\270\200\347\253\240/1.2 PyTorch\347\232\204\345\256\211\350\243\205.md.txt" +++ /dev/null @@ -1,294 +0,0 @@ -# 1.2 PyTorch的安装 - -PyTorch的安装是我们学习PyTorch的第一步,也是经常出错的一步。在安装PyTorch时,我们通常使用的是**Anaconda/miniconda+Pytorch**+ IDE 的流程。 - -经过本节的学习,你将收获: - -- Anaconda/miniconda的安装及其常见命令 -- PyTorch的安装流程 -- 如何选择一个适合自己的PyTorch版本 - -## 1.2.1 Anaconda的安装 - -在数据科学和最近很火的深度学习中,要用到大量成熟的package。我们一个个安装 package 很麻烦,而且很容易出现包之间的依赖不适配的问题。而 Anaconda/miniconda的出现很好的解决了我们的问题,它集成了常用于科学分析(机器学习, 深度学习)的大量package,并且借助于conda我们可以实现对虚拟Python环境的管理。 - -### Step 1:安装Anaconda/miniconda -登陆[Anaconda | Individual Edition](https://www.anaconda.com/products/individual),选择相应系统DownLoad,此处以Windows为例(Linux可以点击[链接](https://docs.conda.io/en/latest/miniconda.html)选择合适的版本进行下载或者通过官方提供的shell脚本进行下载): - -![anaconda](figures/Anaconda.png) - -### Step 2:检验是否安装成功 -在开始页找到Anaconda Prompt,一般在Anaconda3的文件夹下,( Linux在终端下就行了) - -![prompt](figures/prompt.png) - -### Step 3:创建虚拟环境 - -Linux在终端(`Ctrl`+`Alt`+`T`)进行,Windows在`Anaconda Prompt`进行 - -#### 查看现存虚拟环境 -查看已经安装好的虚拟环境,可以看到我们这里已经有两个环境存在了 - -```bash -conda env list -``` - -![env_list](figures/env_list.png) - -#### 创建虚拟环境 -在深度学习和机器学习中,我们经常会创建不同版本的虚拟环境来满足我们的一些需求。下面我们介绍创建虚拟环境的命令。 -```bash -conda create -n env_name python==version -# 注:将env_name 替换成你的环境的名称,version替换成对应的版本号,eg:3.8 -``` - -![](figures/install.png) - -**注**: -1. 这里忽略我们的warning,因为我们测试的时候已经安了又卸载一遍了,正常时是不会有warning的。 -2. 在选择Python版本时,不要选择太高,建议选择3.6-3.8,版本过高会导致相关库不适配。 - -#### 安装包 -```bash -conda install package_name -# 注:package_name 替换成对应的包的名称,eg: pandas -``` -#### 卸载包 -```bash -conda remove package_name -# 注:package_name 替换成对应的包的名称,eg: pandas -``` -#### 显示所有安装的包 -```bash -conda list -``` -#### 删除虚拟环境命令 - -```bash -conda remove -n env_name --all -# 注:env_name 替换成对应的环境的名称 -``` - -#### 激活环境命令 - -```bash -conda activate env_name -# 注:env_name 替换成对应的环境的名称 -``` -#### 退出当前环境 -```bash -conda deactivate -``` -关于更多的命令,我们可以查看Anaconda/miniconda官方提供的命令,官网链接:[点击这里](https://docs.conda.io/projects/conda/en/latest/commands.html#conda-general-commands) -### Step 4:换源 - -在安装package时,我们经常会使用`pip install package_name`和`conda install package_name` 的命令,但是一些package下载速度会很慢,因此我们需要进行换源,换成国内源,加快我们的下载速度。以下便是两种对应方式的永久换源。如果我们仅仅想为单次下载换源可以使用`pip install package_name -i https://pypi.tuna.tsinghua.edu.cn/simple`进行下载。 - -#### pip换源 - -##### Linux: -Linux下的换源,我们首先需要在用户目录下新建文件夹`.pip`,并且在文件夹内新建文件`pip.conf`,具体命令如下 -```bash -cd ~ -mkdir .pip/ -vi pip.conf -``` -随后,我们需要在`pip.conf`添加下方的内容: -```bash -[global] -index-url = http://pypi.douban.com/simple -[install] -use-mirrors =true -mirrors =http://pypi.douban.com/simple/ -trusted-host =pypi.douban.com -``` - -##### Windows: - -1、文件管理器文件路径地址栏敲:`%APPDATA%` 回车,快速进入 `C:\Users\电脑用户\AppData\Roaming` 文件夹中 -2、新建 pip 文件夹并在文件夹中新建 `pip.ini` 配置文件 -3、我们需要在`pip.ini` 配置文件内容,我们可以选择使用记事本打开,输入以下内容,并按下ctrl+s保存,在这里我们使用的是豆瓣源为例子。 - -```bash -[global] -index-url = http://pypi.douban.com/simple -[install] -use-mirrors =true -mirrors =http://pypi.douban.com/simple/ -trusted-host =pypi.douban.com -``` - -#### conda换源(清华源)[官方换源帮助](https://mirrors.tuna.tsinghua.edu.cn/help/anaconda/) - -##### Windows系统: - -TUNA 提供了 Anaconda 仓库与第三方源的镜像,各系统都可以通过修改用户目录下的 `.condarc` 文件。Windows 用户无法直接创建名为 `.condarc` 的文件,可先执行`conda config --set show_channel_urls yes`生成该文件之后再修改。 - -完成这一步后,我们需要修改`C:\Users\User_name\.condarc`这个文件,打开后将文件里原始内容删除,将下面的内容复制进去并保存。 - -```bash -channels: - - defaults -show_channel_urls: true -default_channels: - - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main - - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r - - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2 -custom_channels: - conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud - msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud - bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud - menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud - pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud - simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud -``` - -这一步完成后,我们需要打开`Anaconda Prompt` 运行 `conda clean -i` 清除索引缓存,保证用的是镜像站提供的索引。 - -##### Linux系统: -在Linux系统下,我们还是需要修改`.condarc`来进行换源 -```bash -cd ~ -vi .condarc -``` -在`vim`下,我们需要输入`i`进入编辑模式,将上方内容粘贴进去,按`ESC`退出编辑模式,输入`:wq`保存并退出 - -![换源内容](figures/Linux_source.png) - -我们可以通过`conda config --show default_channels`检查下是否换源成功,如果出现下图内容,即代表我们换源成功。 - -![](figures/source_ok.png) - -同时,我们仍然需要`conda clean -i` 清除索引缓存,保证用的是镜像站提供的索引。 - -## 1.2.2 查看显卡 -该部分如果仅仅只有CPU或者集显的小伙伴们可以跳过该部分 - -### windows: - -我们可以通过在`cmd/terminal中`输入`nvidia-smi`(Linux和Win命令一样)、使用NVIDIA控制面板和使用任务管理器查看自己是否有NVIDIA的独立显卡及其型号 - -![查看GPU](figures/gpu.png) - -![查看显卡](figures/Nvidia.png) - - - -### linux: - -![Linux查看GPU](figures/Linux_GPU.png) - -我们需要看下版本号,看自己可以兼容的CUDA版本,等会安装PyTorch时是可以向下兼容的。具体适配表如下图所示。 - -![适配表](figures/table.png) - -## 1.2.3 安装PyTorch - -### Step 1:登录[PyTorch官网](https://pytorch.org/) - -![](figures/Pytorch.png) - -### Step 2:Install - -![](figures/download.png) - -这个界面我们可以选择本地开始(Start Locally),云开发(Cloud Partners),以前的Pytorch版本(Previous PyTorch Versions),移动端开发(Mobile),在此处我们需要进行本地安装。 - -### Step 3:选择命令 -我们需要结合自己情况选择命令并复制下来,然后使用conda下载或者pip下载(建议conda安装) - -打开`Terminal`,输入`conda activate env_name`(env_name 为你对应的环境名称),切换到对应的环境下面,我们就可以进行PyTorch的安装了。 - -![](figures/choose_envs.png) - -**注**: -1. **Stable**代表的是稳定版本,**Preview**代表的是先行版本 -2. 可以结合电脑是否有显卡,选择CPU版本还是CUDA版本,CUDA版本需要拥有独显且是NVIDIA的GPU -3. 官方建议我们使用**Anaconda/miniconda**来进行管理 -4. 关于安装的系统要求 - - 1. **Windows**: - 1. Windows 7及更高版本;建议使用Windows 10或者更高的版本 - 2. Windows Server 2008 r2 及更高版本 - 2. **Linux:以常见的CentOS和Ubuntu为例** - 1. CentOS, 最低版本7.3-1611 - 2. Ubuntu, 最低版本 13.04,这里会导致cuda安装的最大版本不同 - 3. **macOS**: - 1. macOS 10.10及其以上 - -5. 有些电脑所支持的cuda版本<10.2,此时我们需要进行手动降级,即就是cudatoolkit = 你所适合的版本,但是这里需要注意下一定要保持PyTorch和cudatoolkit的版本适配。查看[Previous PyTorch Versions | PyTorch](https://pytorch.org/get-started/previous-versions/) - -### Step 4:在线下载 - -如果我们使用的`Anaconda Prompt`进行下载的话,我们需要先通过`conda activate env_name`,激活我们的虚拟环境中去,再输入命令。 - -**注**: 我们需要要把下载指令后面的 -c pytorch 去掉以保证使用清华源下载,否则还是默认从官网下载。 -### Step 5:离线下载 - -#### Windows: - -在安装的过程中,我们可能会出现一些奇奇怪怪的问题,导致在线下载不成功,我们也可以使用**离线下载**的方法进行。 - -**下载地址**:https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/ - -通过上面下载地址,我们需要下载好对应版本的pytorch和 torchvision 包,然后打开`Anaconda Prompt`/`Terminal`中,进入我们安装的路径下。 - -```bash -cd package_location -conda activate env_name -``` -接下来输入以下命令安装两个包 - -```bash -conda install --offline pytorch压缩包的全称(后缀都不能忘记) -conda install --offline torchvision压缩包的全称(后缀都不能忘记) -``` - -#### Step 6:检验是否安装成功 - -进入所在的**虚拟环境**,紧接着输入`python`,在输入下面的代码。 - -```python -import torch - -torch.cuda.is_available() -``` -```bash -False -``` -这条命令意思是检验是否可以调用cuda,如果我们**安装的是CPU版本的话会返回False,能够调用GPU的会返回True**。一般这个命令不报错的话就证明安装成功。 - -- Windows系统 - -![验证安装](figures/check_windows.png) - -- Linux系统 - -![](figures/check_linux.png) - -PyTorch的安装绝对是一个容易上火的过程,而且网络上的教程很可能对应早期的版本,或是会出现一些奇奇怪怪的问题,但是别担心,多装几次多遇到点奇奇怪怪的问题就好了! - -## 1.2.4 PyCharm安装(可选操作) - -VSCode这些也是ok的,安装PyCharm非必须操作 - -Linux,Windows此处操作相同,我们建议Windows的同学安装Pycharm即可,因为在Linux上pycharm并不是主流的IDE。 - -### Step 1:进入[官网](https://www.jetbrains.com/pycharm/)下载 -如果是学生的话可以使用学生邮箱注册并下载Professional版本,Community版本也基本能满足我们的日常需求。 - -![Pycharm安装](figures/Pycharm.png) - -### Step 2:配置环境 -我们需要将虚拟环境设为我们的编译器,具体操作:File --> Settings --> Project:你的项目名称--> Python Interpreter - -进去后,我们可以看见他使用的是默认的base环境,现在我们需要将这个环境设置成我们的`test`环境,点击`齿轮`,选择`Add` - -![改环境](figures/envs1.png) - -点击`Conda Environment` ,选择`Existing environment`,将`Interpreter`设置为test环境下的`python.exe` - -![改环境](figures/envs2.png) - -注:如果在pycharm的环境时,想进入我们的虚拟环境,要使用`conda activate 名称` - diff --git "a/docs/_sources/\347\254\254\344\270\200\347\253\240/1.3 PyTorch\347\233\270\345\205\263\350\265\204\346\272\220.md.txt" "b/docs/_sources/\347\254\254\344\270\200\347\253\240/1.3 PyTorch\347\233\270\345\205\263\350\265\204\346\272\220.md.txt" deleted file mode 100644 index 2ea388df0..000000000 --- "a/docs/_sources/\347\254\254\344\270\200\347\253\240/1.3 PyTorch\347\233\270\345\205\263\350\265\204\346\272\220.md.txt" +++ /dev/null @@ -1,25 +0,0 @@ -# 1.3 PyTorch相关资源 - -PyTorch之所以被越来越多的人使用,不仅在于其完备的教程,还受益于许多相关的资源和完善的论坛。 - -经过本节的学习,你将收获: - -- PyTorch的优质学习资源 - -## 1.3.1 PyTorch学习资源 -1. [Awesome-pytorch-list](https://github.com/bharathgs/Awesome-pytorch-list):目前已获12K Star,包含了NLP,CV,常见库,论文实现以及Pytorch的其他项目。 -2. [PyTorch官方文档](https://pytorch.org/docs/stable/index.html):官方发布的文档,十分丰富。 -3. [Pytorch-handbook](https://github.com/zergtant/pytorch-handbook):GitHub上已经收获14.8K,pytorch手中书。 -4. [PyTorch官方社区](https://discuss.pytorch.org/):PyTorch拥有一个活跃的社区,在这里你可以和开发pytorch的人们进行交流。 -5. [PyTorch官方tutorials](https://pytorch.org/tutorials/):官方编写的tutorials,可以结合colab边动手边学习 -6. [动手学深度学习](https://zh.d2l.ai/):动手学深度学习是由李沐老师主讲的一门深度学习入门课,拥有成熟的书籍资源和课程资源,在B站,Youtube均有回放。 -7. [Awesome-PyTorch-Chinese](https://github.com/INTERMT/Awesome-PyTorch-Chinese):常见的中文优质PyTorch资源 -8. [labml.ai Deep Learning Paper Implementations](https://github.com/labmlai/annotated_deep_learning_paper_implementations):手把手实现经典网络代码 -9. [YSDA course in Natural Language Processing](https://github.com/yandexdataschool/nlp_course):YSDA course in Natural Language Processing -10. [huggingface](https://huggingface.co/):hugging face -11. [ModelScope](https://modelscope.cn/models): 魔搭社区 - -除此之外,还有很多学习pytorch的资源在b站,stackoverflow,知乎......未来大家还需要多多探索,我们希望大家可以在实战中不断学习,不断给予我们课程反馈。 - -**以上便是第一章的内容了,能力有限,希望各位一定要带着自己的想法去思考问题,也希望各位能指出文档中的问题,我们会不断改进内容,给大家呈现一个更好的教程。** - diff --git "a/docs/_sources/\347\254\254\344\270\200\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\344\270\200\347\253\240/index.md.txt" deleted file mode 100644 index ef322434c..000000000 --- "a/docs/_sources/\347\254\254\344\270\200\347\253\240/index.md.txt" +++ /dev/null @@ -1,7 +0,0 @@ -# 第一章:PyTorch的简介和安装 -```{toctree} -:maxdepth: 2 -1.1 PyTorch简介 -1.2 PyTorch的安装 -1.3 PyTorch相关资源 -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\344\270\203\347\253\240/7.1 \345\217\257\350\247\206\345\214\226\347\275\221\347\273\234\347\273\223\346\236\204.md.txt" "b/docs/_sources/\347\254\254\344\270\203\347\253\240/7.1 \345\217\257\350\247\206\345\214\226\347\275\221\347\273\234\347\273\223\346\236\204.md.txt" deleted file mode 100644 index 1cf528bf6..000000000 --- "a/docs/_sources/\347\254\254\344\270\203\347\253\240/7.1 \345\217\257\350\247\206\345\214\226\347\275\221\347\273\234\347\273\223\346\236\204.md.txt" +++ /dev/null @@ -1,170 +0,0 @@ -# 7.1 可视化网络结构 - -随着深度神经网络做的的发展,网络的结构越来越复杂,我们也很难确定每一层的输入结构,输出结构以及参数等信息,这样导致我们很难在短时间内完成debug。因此掌握一个可以用来可视化网络结构的工具是十分有必要的。类似的功能在另一个深度学习库Keras中可以调用一个叫做`model.summary()`的API来很方便地实现,调用后就会显示我们的模型参数,输入大小,输出大小,模型的整体参数等,但是在PyTorch中没有这样一种便利的工具帮助我们可视化我们的模型结构。 - -为了解决这个问题,人们开发了torchinfo工具包 ( torchinfo是由torchsummary和torchsummaryX重构出的库) 。本节我们将介绍如何使用torchinfo来可视化网络结构。 - -经过本节的学习,你将收获: - -- 可视化网络结构的方法 - - - -## 7.1.1 使用print函数打印模型基础信息 - -在本节中,我们将使用ResNet18的结构进行展示。 - -```python -import torchvision.models as models -model = models.resnet18() -``` - -通过上面的两步,我们就得到resnet18的模型结构。在学习torchinfo之前,让我们先看下直接print(model)的结果。 - -```python -ResNet( - (conv1): Conv2d(3, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3), bias=False) - (bn1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (relu): ReLU(inplace=True) - (maxpool): MaxPool2d(kernel_size=3, stride=2, padding=1, dilation=1, ceil_mode=False) - (layer1): Sequential( - (0): Bottleneck( - (conv1): Conv2d(64, 64, kernel_size=(1, 1), stride=(1, 1), bias=False) - (bn1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (conv2): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (bn2): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (conv3): Conv2d(64, 256, kernel_size=(1, 1), stride=(1, 1), bias=False) - (bn3): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (relu): ReLU(inplace=True) - (downsample): Sequential( - (0): Conv2d(64, 256, kernel_size=(1, 1), stride=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - ) - ) - ... ... - ) - (avgpool): AdaptiveAvgPool2d(output_size=(1, 1)) - (fc): Linear(in_features=2048, out_features=1000, bias=True) -) -``` - -我们可以发现单纯的print(model),只能得出基础构件的信息,既不能显示出每一层的shape,也不能显示对应参数量的大小,为了解决这些问题,我们就需要介绍出我们今天的主人公`torchinfo`。 - - - -## 7.1.2 使用torchinfo可视化网络结构 - -- **torchinfo的安装** - -```bash -# 安装方法一 -pip install torchinfo -# 安装方法二 -conda install -c conda-forge torchinfo -``` - -- **torchinfo的使用** - -trochinfo的使用也是十分简单,我们只需要使用`torchinfo.summary()`就行了,必需的参数分别是model,input_size[batch_size,channel,h,w],更多参数可以参考[documentation](https://github.com/TylerYep/torchinfo#documentation),下面让我们一起通过一个实例进行学习。 - -```python -import torchvision.models as models -from torchinfo import summary -resnet18 = models.resnet18() # 实例化模型 -summary(resnet18, (1, 3, 224, 224)) # 1:batch_size 3:图片的通道数 224: 图片的高宽 -``` - -- **torchinfo的结构化输出** - -```bash -========================================================================================= -Layer (type:depth-idx) Output Shape Param # -========================================================================================= -ResNet -- -- -├─Conv2d: 1-1 [1, 64, 112, 112] 9,408 -├─BatchNorm2d: 1-2 [1, 64, 112, 112] 128 -├─ReLU: 1-3 [1, 64, 112, 112] -- -├─MaxPool2d: 1-4 [1, 64, 56, 56] -- -├─Sequential: 1-5 [1, 64, 56, 56] -- -│ └─BasicBlock: 2-1 [1, 64, 56, 56] -- -│ │ └─Conv2d: 3-1 [1, 64, 56, 56] 36,864 -│ │ └─BatchNorm2d: 3-2 [1, 64, 56, 56] 128 -│ │ └─ReLU: 3-3 [1, 64, 56, 56] -- -│ │ └─Conv2d: 3-4 [1, 64, 56, 56] 36,864 -│ │ └─BatchNorm2d: 3-5 [1, 64, 56, 56] 128 -│ │ └─ReLU: 3-6 [1, 64, 56, 56] -- -│ └─BasicBlock: 2-2 [1, 64, 56, 56] -- -│ │ └─Conv2d: 3-7 [1, 64, 56, 56] 36,864 -│ │ └─BatchNorm2d: 3-8 [1, 64, 56, 56] 128 -│ │ └─ReLU: 3-9 [1, 64, 56, 56] -- -│ │ └─Conv2d: 3-10 [1, 64, 56, 56] 36,864 -│ │ └─BatchNorm2d: 3-11 [1, 64, 56, 56] 128 -│ │ └─ReLU: 3-12 [1, 64, 56, 56] -- -├─Sequential: 1-6 [1, 128, 28, 28] -- -│ └─BasicBlock: 2-3 [1, 128, 28, 28] -- -│ │ └─Conv2d: 3-13 [1, 128, 28, 28] 73,728 -│ │ └─BatchNorm2d: 3-14 [1, 128, 28, 28] 256 -│ │ └─ReLU: 3-15 [1, 128, 28, 28] -- -│ │ └─Conv2d: 3-16 [1, 128, 28, 28] 147,456 -│ │ └─BatchNorm2d: 3-17 [1, 128, 28, 28] 256 -│ │ └─Sequential: 3-18 [1, 128, 28, 28] 8,448 -│ │ └─ReLU: 3-19 [1, 128, 28, 28] -- -│ └─BasicBlock: 2-4 [1, 128, 28, 28] -- -│ │ └─Conv2d: 3-20 [1, 128, 28, 28] 147,456 -│ │ └─BatchNorm2d: 3-21 [1, 128, 28, 28] 256 -│ │ └─ReLU: 3-22 [1, 128, 28, 28] -- -│ │ └─Conv2d: 3-23 [1, 128, 28, 28] 147,456 -│ │ └─BatchNorm2d: 3-24 [1, 128, 28, 28] 256 -│ │ └─ReLU: 3-25 [1, 128, 28, 28] -- -├─Sequential: 1-7 [1, 256, 14, 14] -- -│ └─BasicBlock: 2-5 [1, 256, 14, 14] -- -│ │ └─Conv2d: 3-26 [1, 256, 14, 14] 294,912 -│ │ └─BatchNorm2d: 3-27 [1, 256, 14, 14] 512 -│ │ └─ReLU: 3-28 [1, 256, 14, 14] -- -│ │ └─Conv2d: 3-29 [1, 256, 14, 14] 589,824 -│ │ └─BatchNorm2d: 3-30 [1, 256, 14, 14] 512 -│ │ └─Sequential: 3-31 [1, 256, 14, 14] 33,280 -│ │ └─ReLU: 3-32 [1, 256, 14, 14] -- -│ └─BasicBlock: 2-6 [1, 256, 14, 14] -- -│ │ └─Conv2d: 3-33 [1, 256, 14, 14] 589,824 -│ │ └─BatchNorm2d: 3-34 [1, 256, 14, 14] 512 -│ │ └─ReLU: 3-35 [1, 256, 14, 14] -- -│ │ └─Conv2d: 3-36 [1, 256, 14, 14] 589,824 -│ │ └─BatchNorm2d: 3-37 [1, 256, 14, 14] 512 -│ │ └─ReLU: 3-38 [1, 256, 14, 14] -- -├─Sequential: 1-8 [1, 512, 7, 7] -- -│ └─BasicBlock: 2-7 [1, 512, 7, 7] -- -│ │ └─Conv2d: 3-39 [1, 512, 7, 7] 1,179,648 -│ │ └─BatchNorm2d: 3-40 [1, 512, 7, 7] 1,024 -│ │ └─ReLU: 3-41 [1, 512, 7, 7] -- -│ │ └─Conv2d: 3-42 [1, 512, 7, 7] 2,359,296 -│ │ └─BatchNorm2d: 3-43 [1, 512, 7, 7] 1,024 -│ │ └─Sequential: 3-44 [1, 512, 7, 7] 132,096 -│ │ └─ReLU: 3-45 [1, 512, 7, 7] -- -│ └─BasicBlock: 2-8 [1, 512, 7, 7] -- -│ │ └─Conv2d: 3-46 [1, 512, 7, 7] 2,359,296 -│ │ └─BatchNorm2d: 3-47 [1, 512, 7, 7] 1,024 -│ │ └─ReLU: 3-48 [1, 512, 7, 7] -- -│ │ └─Conv2d: 3-49 [1, 512, 7, 7] 2,359,296 -│ │ └─BatchNorm2d: 3-50 [1, 512, 7, 7] 1,024 -│ │ └─ReLU: 3-51 [1, 512, 7, 7] -- -├─AdaptiveAvgPool2d: 1-9 [1, 512, 1, 1] -- -├─Linear: 1-10 [1, 1000] 513,000 -========================================================================================= -Total params: 11,689,512 -Trainable params: 11,689,512 -Non-trainable params: 0 -Total mult-adds (G): 1.81 -========================================================================================= -Input size (MB): 0.60 -Forward/backward pass size (MB): 39.75 -Params size (MB): 46.76 -Estimated Total Size (MB): 87.11 -========================================================================================= -``` - -我们可以看到torchinfo提供了更加详细的信息,包括模块信息(每一层的类型、输出shape和参数量)、模型整体的参数量、模型大小、一次前向或者反向传播需要的内存大小等 - -**注意**: - -但你使用的是colab或者jupyter notebook时,想要实现该方法,`summary()`一定是该单元(即notebook中的cell)的返回值,否则我们就需要使用`print(summary(...))`来可视化。 diff --git "a/docs/_sources/\347\254\254\344\270\203\347\253\240/7.2 CNN\345\215\267\347\247\257\345\261\202\345\217\257\350\247\206\345\214\226.md.txt" "b/docs/_sources/\347\254\254\344\270\203\347\253\240/7.2 CNN\345\215\267\347\247\257\345\261\202\345\217\257\350\247\206\345\214\226.md.txt" deleted file mode 100644 index 9cb21715f..000000000 --- "a/docs/_sources/\347\254\254\344\270\203\347\253\240/7.2 CNN\345\215\267\347\247\257\345\261\202\345\217\257\350\247\206\345\214\226.md.txt" +++ /dev/null @@ -1,263 +0,0 @@ -# 7.2 CNN可视化 - -卷积神经网络(CNN)是深度学习中非常重要的模型结构,它广泛地用于图像处理,极大地提升了模型表现,推动了计算机视觉的发展和进步。但CNN是一个“黑盒模型”,人们并不知道CNN是如何获得较好表现的,由此带来了深度学习的可解释性问题。如果能理解CNN工作的方式,人们不仅能够解释所获得的结果,提升模型的鲁棒性,而且还能有针对性地改进CNN的结构以获得进一步的效果提升。 - -理解CNN的重要一步是可视化,包括可视化特征是如何提取的、提取到的特征的形式以及模型在输入数据上的关注点等。本节我们就从上述三个方面出发,介绍如何在PyTorch的框架下完成CNN模型的可视化。 - -经过本节的学习,你将收获: - -- 可视化CNN卷积核的方法 -- 可视化CNN特征图的方法 -- 可视化CNN显著图(class activation map)的方法 - - - -## 7.2.1 CNN卷积核可视化 - -卷积核在CNN中负责提取特征,可视化卷积核能够帮助人们理解CNN各个层在提取什么样的特征,进而理解模型的工作原理。例如在Zeiler和Fergus 2013年的[paper](https://arxiv.org/pdf/1311.2901.pdf)中就研究了CNN各个层的卷积核的不同,他们发现靠近输入的层提取的特征是相对简单的结构,而靠近输出的层提取的特征就和图中的实体形状相近了,如下图所示: - -![layer2](./figures/layer2.png) - -![layer3](./figures/layer3.png) - -![layer4](./figures/layer4.png) - -在PyTorch中可视化卷积核也非常方便,核心在于特定层的卷积核即特定层的模型权重,可视化卷积核就等价于可视化对应的权重矩阵。下面给出在PyTorch中可视化卷积核的实现方案,以torchvision自带的VGG11模型为例。 - -首先加载模型,并确定模型的层信息: - -```python -import torch -from torchvision.models import vgg11 - -model = vgg11(pretrained=True) -print(dict(model.features.named_children())) -``` - -```python -{'0': Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), - '1': ReLU(inplace=True), - '2': MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False), - '3': Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), - '4': ReLU(inplace=True), - '5': MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False), - '6': Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), - '7': ReLU(inplace=True), - '8': Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), - '9': ReLU(inplace=True), - '10': MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False), - '11': Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), - '12': ReLU(inplace=True), - '13': Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), - '14': ReLU(inplace=True), - '15': MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False), - '16': Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), - '17': ReLU(inplace=True), - '18': Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), - '19': ReLU(inplace=True), - '20': MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)} -``` - -卷积核对应的应为卷积层(Conv2d),这里以第“3”层为例,可视化对应的参数: - -```python -conv1 = dict(model.features.named_children())['3'] -kernel_set = conv1.weight.detach() -num = len(conv1.weight.detach()) -print(kernel_set.shape) -for i in range(0,num): - i_kernel = kernel_set[i] - plt.figure(figsize=(20, 17)) - if (len(i_kernel)) > 1: - for idx, filer in enumerate(i_kernel): - plt.subplot(9, 9, idx+1) - plt.axis('off') - plt.imshow(filer[ :, :].detach(),cmap='bwr') -``` - -``` -torch.Size([128, 64, 3, 3]) -``` - -由于第“3”层的特征图由64维变为128维,因此共有128*64个卷积核,其中部分卷积核可视化效果如下图所示: - -![kernel](./figures/kernel_vis.png) - -## 7.2.2 CNN特征图可视化方法 - -与卷积核相对应,输入的原始图像经过每次卷积层得到的数据称为特征图,可视化卷积核是为了看模型提取哪些特征,可视化特征图则是为了看模型提取到的特征是什么样子的。 - -获取特征图的方法有很多种,可以从输入开始,逐层做前向传播,直到想要的特征图处将其返回。尽管这种方法可行,但是有些麻烦了。在PyTorch中,提供了一个专用的接口使得网络在前向传播过程中能够获取到特征图,这个接口的名称非常形象,叫做hook。可以想象这样的场景,数据通过网络向前传播,网络某一层我们预先设置了一个钩子,数据传播过后钩子上会留下数据在这一层的样子,读取钩子的信息就是这一层的特征图。具体实现如下: - -```python -class Hook(object): - def __init__(self): - self.module_name = [] - self.features_in_hook = [] - self.features_out_hook = [] - - def __call__(self,module, fea_in, fea_out): - print("hooker working", self) - self.module_name.append(module.__class__) - self.features_in_hook.append(fea_in) - self.features_out_hook.append(fea_out) - return None - - -def plot_feature(model, idx, inputs): - hh = Hook() - model.features[idx].register_forward_hook(hh) - - # forward_model(model,False) - model.eval() - _ = model(inputs) - print(hh.module_name) - print((hh.features_in_hook[0][0].shape)) - print((hh.features_out_hook[0].shape)) - - out1 = hh.features_out_hook[0] - - total_ft = out1.shape[1] - first_item = out1[0].cpu().clone() - - plt.figure(figsize=(20, 17)) - - - for ftidx in range(total_ft): - if ftidx > 99: - break - ft = first_item[ftidx] - plt.subplot(10, 10, ftidx+1) - - plt.axis('off') - #plt.imshow(ft[ :, :].detach(),cmap='gray') - plt.imshow(ft[ :, :].detach()) -``` - -这里我们首先实现了一个hook类,之后在plot_feature函数中,将该hook类的对象注册到要进行可视化的网络的某层中。model在进行前向传播的时候会调用hook的__call__函数,我们也就是在那里存储了当前层的输入和输出。这里的features_out_hook 是一个list,每次前向传播一次,都是调用一次,也就是features_out_hook 长度会增加1。 - -## 7.2.3 CNN class activation map可视化方法 - -class activation map (CAM)的作用是判断哪些变量对模型来说是重要的,在CNN可视化的场景下,即判断图像中哪些像素点对预测结果是重要的。除了确定重要的像素点,人们也会对重要区域的梯度感兴趣,因此在CAM的基础上也进一步改进得到了Grad-CAM(以及诸多变种)。CAM和Grad-CAM的示例如下图所示: - -![cam](./figures/cam.png) - -相比可视化卷积核与可视化特征图,CAM系列可视化更为直观,能够一目了然地确定重要区域,进而进行可解释性分析或模型优化改进。CAM系列操作的实现可以通过开源工具包pytorch-grad-cam来实现。 - -- 安装 - -```bash -pip install grad-cam -``` - -- 一个简单的例子 - -```python -import torch -from torchvision.models import vgg11,resnet18,resnet101,resnext101_32x8d -import matplotlib.pyplot as plt -from PIL import Image -import numpy as np - -model = vgg11(pretrained=True) -img_path = './dog.png' -# resize操作是为了和传入神经网络训练图片大小一致 -img = Image.open(img_path).resize((224,224)) -# 需要将原始图片转为np.float32格式并且在0-1之间 -rgb_img = np.float32(img)/255 -plt.imshow(img) -``` - -![dog](./figures/dog.png) - -```python -from pytorch_grad_cam import GradCAM,ScoreCAM,GradCAMPlusPlus,AblationCAM,XGradCAM,EigenCAM,FullGrad -from pytorch_grad_cam.utils.model_targets import ClassifierOutputTarget -from pytorch_grad_cam.utils.image import show_cam_on_image - -# 将图片转为tensor -img_tensor = torch.from_numpy(rgb_img).permute(2,0,1).unsqueeze(0) - -target_layers = [model.features[-1]] -# 选取合适的类激活图,但是ScoreCAM和AblationCAM需要batch_size -cam = GradCAM(model=model,target_layers=target_layers) -targets = [ClassifierOutputTarget(preds)] -# 上方preds需要设定,比如ImageNet有1000类,这里可以设为200 -grayscale_cam = cam(input_tensor=img_tensor, targets=targets) -grayscale_cam = grayscale_cam[0, :] -cam_img = show_cam_on_image(rgb_img, grayscale_cam, use_rgb=True) -print(type(cam_img)) -Image.fromarray(cam_img) -``` - -![grad_cam](./figures/cam_dog.png) - -## 7.2.4 使用FlashTorch快速实现CNN可视化 - -聪明的你可能要问了,已经202x年了,难道还要我们手把手去写各种CNN可视化的代码吗?答案当然是否定的。随着PyTorch社区的努力,目前已经有不少开源工具能够帮助我们快速实现CNN可视化。这里我们介绍其中的一个——[FlashTorch](https://github.com/MisaOgura/flashtorch)。 - -(注:使用中发现该package对环境有要求,如果下方代码运行报错,请参考作者给出的配置或者Colab运行环境:https://github.com/MisaOgura/flashtorch/issues/39) - -- 安装 - -```bash -pip install flashtorch -``` - -- 可视化梯度 - -```python -# Download example images -# !mkdir -p images -# !wget -nv \ -# https://github.com/MisaOgura/flashtorch/raw/master/examples/images/great_grey_owl.jpg \ -# https://github.com/MisaOgura/flashtorch/raw/master/examples/images/peacock.jpg \ -# https://github.com/MisaOgura/flashtorch/raw/master/examples/images/toucan.jpg \ -# -P /content/images - -import matplotlib.pyplot as plt -import torchvision.models as models -from flashtorch.utils import apply_transforms, load_image -from flashtorch.saliency import Backprop - -model = models.alexnet(pretrained=True) -backprop = Backprop(model) - -image = load_image('/content/images/great_grey_owl.jpg') -owl = apply_transforms(image) - -target_class = 24 -backprop.visualize(owl, target_class, guided=True, use_gpu=True) -``` - -![ft-gradient](./figures/ft_gradient.png) - -- 可视化卷积核 - -```python -import torchvision.models as models -from flashtorch.activmax import GradientAscent - -model = models.vgg16(pretrained=True) -g_ascent = GradientAscent(model.features) - -# specify layer and filter info -conv5_1 = model.features[24] -conv5_1_filters = [45, 271, 363, 489] - -g_ascent.visualize(conv5_1, conv5_1_filters, title="VGG16: conv5_1") -``` - -![ft-activate](./figures/ft_activate.png) - - - - - -## 参考资料 - -1. https://andrewhuman.github.io/cnn-hidden-layout_search -2. https://cloud.tencent.com/developer/article/1747222 -3. https://github.com/jacobgil/pytorch-grad-cam -4. https://github.com/MisaOgura/flashtorch - diff --git "a/docs/_sources/\347\254\254\344\270\203\347\253\240/7.3 \344\275\277\347\224\250TensorBoard\345\217\257\350\247\206\345\214\226\350\256\255\347\273\203\350\277\207\347\250\213.md.txt" "b/docs/_sources/\347\254\254\344\270\203\347\253\240/7.3 \344\275\277\347\224\250TensorBoard\345\217\257\350\247\206\345\214\226\350\256\255\347\273\203\350\277\207\347\250\213.md.txt" deleted file mode 100644 index 625f6444a..000000000 --- "a/docs/_sources/\347\254\254\344\270\203\347\253\240/7.3 \344\275\277\347\224\250TensorBoard\345\217\257\350\247\206\345\214\226\350\256\255\347\273\203\350\277\207\347\250\213.md.txt" +++ /dev/null @@ -1,291 +0,0 @@ -# 7.3 使用TensorBoard可视化训练过程 - -训练过程的可视化在深度学习模型训练中扮演着重要的角色。学习的过程是一个优化的过程,我们需要找到最优的点作为训练过程的输出产物。一般来说,我们会结合训练集的损失函数和验证集的损失函数,绘制两条损失函数的曲线来确定训练的终点,找到对应的模型用于测试。那么除了记录训练中每个epoch的loss值,能否实时观察损失函数曲线的变化,及时捕捉模型的变化呢? - -此外,我们也希望可视化其他内容,如输入数据(尤其是图片)、模型结构、参数分布等,这些对于我们在debug中查找问题来源非常重要(比如输入数据和我们想象的是否一致)。 - -TensorBoard作为一款可视化工具能够满足上面提到的各种需求。TensorBoard由TensorFlow团队开发,最早和TensorFlow配合使用,后来广泛应用于各种深度学习框架的可视化中来。本节我们探索TensorBoard的强大功能,希望帮助读者“从入门到精通”。 - -经过本节的学习,你将收获: - -- 安装TensorBoard工具 -- 了解TensorBoard可视化的基本逻辑 -- 掌握利用TensorBoard实现训练过程可视化 -- 掌握利用TensorBoard完成其他内容的可视化 - - - -## 7.3.1 TensorBoard安装 - -在已安装PyTorch的环境下使用pip安装即可: - -```bash -pip install tensorboardX -``` - -也可以使用PyTorch自带的tensorboard工具,此时不需要额外安装tensorboard。 - -## 7.3.2 TensorBoard可视化的基本逻辑 - -我们可以将TensorBoard看做一个记录员,它可以记录我们指定的数据,包括模型每一层的feature map,权重,以及训练loss等等。TensorBoard将记录下来的内容保存在一个用户指定的文件夹里,程序不断运行中TensorBoard会不断记录。记录下的内容可以通过网页的形式加以可视化。 - -## 7.3.3 TensorBoard的配置与启动 - -在使用TensorBoard前,我们需要先指定一个文件夹供TensorBoard保存记录下来的数据。然后调用tensorboard中的SummaryWriter作为上述“记录员” - -```python -from tensorboardX import SummaryWriter - -writer = SummaryWriter('./runs') -``` - -上面的操作实例化SummaryWritter为变量writer,并指定writer的输出目录为当前目录下的"runs"目录。也就是说,之后tensorboard记录下来的内容都会保存在runs。 - -如果使用PyTorch自带的tensorboard,则采用如下方式import: - -```python -from torch.utils.tensorboard import SummaryWriter -``` - -这里聪明的你可能发现了,是否可以手动往runs文件夹里添加数据用于可视化,或者把runs文件夹里的数据放到其他机器上可视化呢?答案是可以的。只要数据被记录,你可以将这个数据分享给其他人,其他人在安装了tensorboard的情况下就会看到你分享的数据。 - -启动tensorboard也很简单,在命令行中输入 - -```bash -tensorboard --logdir=/path/to/logs/ --port=xxxx -``` - -其中“path/to/logs/"是指定的保存tensorboard记录结果的文件路径(等价于上面的“./runs",port是外部访问TensorBoard的端口号,可以通过访问ip:port访问tensorboard,这一操作和jupyter notebook的使用类似。如果不是在服务器远程使用的话则不需要配置port。 - -有时,为了tensorboard能够不断地在后台运行,也可以使用nohup命令或者tmux工具来运行tensorboard。大家可以自行搜索,这里不展开讨论了。 - -下面,我们将模拟深度学习模型训练过程,来介绍如何利用TensorBoard可视化其中的各个部分。 - -## 7.3.4 TensorBoard模型结构可视化 - -首先定义模型: - -```python -import torch.nn as nn - -class Net(nn.Module): - def __init__(self): - super(Net, self).__init__() - self.conv1 = nn.Conv2d(in_channels=3,out_channels=32,kernel_size = 3) - self.pool = nn.MaxPool2d(kernel_size = 2,stride = 2) - self.conv2 = nn.Conv2d(in_channels=32,out_channels=64,kernel_size = 5) - self.adaptive_pool = nn.AdaptiveMaxPool2d((1,1)) - self.flatten = nn.Flatten() - self.linear1 = nn.Linear(64,32) - self.relu = nn.ReLU() - self.linear2 = nn.Linear(32,1) - self.sigmoid = nn.Sigmoid() - - def forward(self,x): - x = self.conv1(x) - x = self.pool(x) - x = self.conv2(x) - x = self.pool(x) - x = self.adaptive_pool(x) - x = self.flatten(x) - x = self.linear1(x) - x = self.relu(x) - x = self.linear2(x) - y = self.sigmoid(x) - return y - -model = Net() -print(model) -``` - -输出如下: - -``` -Net( - (conv1): Conv2d(3, 32, kernel_size=(3, 3), stride=(1, 1)) - (pool): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (conv2): Conv2d(32, 64, kernel_size=(5, 5), stride=(1, 1)) - (adaptive_pool): AdaptiveMaxPool2d(output_size=(1, 1)) - (flatten): Flatten(start_dim=1, end_dim=-1) - (linear1): Linear(in_features=64, out_features=32, bias=True) - (relu): ReLU() - (linear2): Linear(in_features=32, out_features=1, bias=True) - (sigmoid): Sigmoid() -) -``` - -可视化模型的思路和7.1中介绍的方法一样,都是给定一个输入数据,前向传播后得到模型的结构,再通过TensorBoard进行可视化,使用add_graph: - -```python -writer.add_graph(model, input_to_model = torch.rand(1, 3, 224, 224)) -writer.close() -``` - -展示结果如下(其中框内部分初始会显示为“Net",需要双击后才会展开): - -![tb_model](./figures/tb_model.png) - -## 7.3.5 TensorBoard图像可视化 - -当我们做图像相关的任务时,可以方便地将所处理的图片在tensorboard中进行可视化展示。 - -- 对于单张图片的显示使用add_image -- 对于多张图片的显示使用add_images -- 有时需要使用torchvision.utils.make_grid将多张图片拼成一张图片后,用writer.add_image显示 - -这里我们使用torchvision的CIFAR10数据集为例: - -```python -import torchvision -from torchvision import datasets, transforms -from torch.utils.data import DataLoader - -transform_train = transforms.Compose( - [transforms.ToTensor()]) -transform_test = transforms.Compose( - [transforms.ToTensor()]) - -train_data = datasets.CIFAR10(".", train=True, download=True, transform=transform_train) -test_data = datasets.CIFAR10(".", train=False, download=True, transform=transform_test) -train_loader = DataLoader(train_data, batch_size=64, shuffle=True) -test_loader = DataLoader(test_data, batch_size=64) - -images, labels = next(iter(train_loader)) - -# 仅查看一张图片 -writer = SummaryWriter('./pytorch_tb') -writer.add_image('images[0]', images[0]) -writer.close() - -# 将多张图片拼接成一张图片,中间用黑色网格分割 -# create grid of images -writer = SummaryWriter('./pytorch_tb') -img_grid = torchvision.utils.make_grid(images) -writer.add_image('image_grid', img_grid) -writer.close() - -# 将多张图片直接写入 -writer = SummaryWriter('./pytorch_tb') -writer.add_images("images",images,global_step = 0) -writer.close() -``` - -依次运行上面三组可视化(注意不要同时在notebook的一个单元格内运行),得到的可视化结果如下(最后运行的结果在最上面): - -![tb_images](./figures/tb_images.png) - -![tb_image_gird](./figures/tb_image_grid.png) - -![tb_image](./figures/tb_image.png) - -另外注意上方menu部分,刚刚只有“GRAPHS"栏对应模型的可视化,现在则多出了”IMAGES“栏对应图像的可视化。左侧的滑动按钮可以调整图像的亮度和对比度。 - -此外,除了可视化原始图像,TensorBoard提供的可视化方案自然也适用于我们在Python中用matplotlib等工具绘制的其他图像,用于展示分析结果等内容。 - -## 7.3.6 TensorBoard连续变量可视化 - -TensorBoard可以用来可视化连续变量(或时序变量)的变化过程,通过add_scalar实现: - -```python -writer = SummaryWriter('./pytorch_tb') -for i in range(500): - x = i - y = x**2 - writer.add_scalar("x", x, i) #日志中记录x在第step i 的值 - writer.add_scalar("y", y, i) #日志中记录y在第step i 的值 -writer.close() -``` - -可视化结果如下: - -![tb_scalar](./figures/tb_scalar.png) - -如果想在同一张图中显示多个曲线,则需要分别建立存放子路径(使用SummaryWriter指定路径即可自动创建,但需要在tensorboard运行目录下),同时在add_scalar中修改曲线的标签使其一致即可: - -```python -writer1 = SummaryWriter('./pytorch_tb/x') -writer2 = SummaryWriter('./pytorch_tb/y') -for i in range(500): - x = i - y = x*2 - writer1.add_scalar("same", x, i) #日志中记录x在第step i 的值 - writer2.add_scalar("same", y, i) #日志中记录y在第step i 的值 -writer1.close() -writer2.close() -``` - -![tb_scalar_twolines](./figures/tb_twolines.png) - -这里也可以用一个writer,但for循环中不断创建SummaryWriter不是一个好选项。此时左下角的Runs部分出现了勾选项,我们可以选择我们想要可视化的曲线。曲线名称对应存放子路径的名称(这里是x和y)。 - -这部分功能非常适合损失函数的可视化,可以帮助我们更加直观地了解模型的训练情况,从而确定最佳的checkpoint。左侧的Smoothing滑动按钮可以调整曲线的平滑度,当损失函数震荡较大时,将Smoothing调大有助于观察loss的整体变化趋势。 - -## 7.3.7 TensorBoard参数分布可视化 - -当我们需要对参数(或向量)的变化,或者对其分布进行研究时,可以方便地用TensorBoard来进行可视化,通过add_histogram实现。下面给出一个例子: - -```python -import torch -import numpy as np - -# 创建正态分布的张量模拟参数矩阵 -def norm(mean, std): - t = std * torch.randn((100, 20)) + mean - return t - -writer = SummaryWriter('./pytorch_tb/') -for step, mean in enumerate(range(-10, 10, 1)): - w = norm(mean, 1) - writer.add_histogram("w", w, step) - writer.flush() -writer.close() -``` - -结果如下: - -![tb_hist](./figures/tb_hist.png) - -## 7.3.8 服务器端使用TensorBoard -一般情况下,我们会连接远程的服务器来对模型进行训练,但由于服务器端是没有浏览器的(纯命令模式),因此,我们需要进行相应的配置,才可以在本地浏览器,使用tensorboard查看服务器运行的训练过程。 -本文提供以下几种方式进行,其中前两种方法都是建立SSH隧道,实现远程端口到本机端口的转发,最后一种方法适用于没有下载Xshell等SSH连接工具的用户 -- MobaXterm - 1. 在MobaXterm点击Tunneling - 2. 选择New SSH tunnel,我们会出现以下界面。 - - ![ssh_tunnel](./figures/ssh_tunnel_UI.png) - 3. 对新建的SSH通道做以下设置,第一栏我们选择`Local port forwarding`,`< Remote Server>`我们填写**localhost**,`< Remote port>`填写6006,tensorboard默认会在6006端口进行显示,我们也可以根据 **tensorboard --logdir=/path/to/logs/ --port=xxxx**的命令中的port进行修改,`< SSH server>` 填写我们连接服务器的ip地址,``填写我们连接的服务器的用户名,``填写端口号(通常为22),`< forwarded port>`填写的是本地的一个端口号,以便我们后面可以对其进行访问。 - 4. 设定好之后,点击Save,然后Start。在启动tensorboard,这样我们就可以在本地的浏览器输入`http://localhost:6006/`对其进行访问了 -- Xshell - 1. Xshell的连接方法与MobaXterm的连接方式本质上是一样的,具体操作如下: - 2. 连接上服务器后,打开当前会话属性,会出现下图,我们选择隧道,点击添加 - ![xhell_ui](./figures/xshell_ui.png) - 3. 按照下方图进行选择,其中目标主机代表的是服务器,源主机代表的是本地,端口的选择根据实际情况而定。 - ![xhell_set](./figures/xshell_set.png) - 4. 启动tensorboard,在本地127.0.0.1:6006 或者 localhost:6006进行访问。 -- SSH - 1. 该方法是将服务器的6006端口重定向到自己机器上来,我们可以在本地的终端里输入以下代码:其中16006代表映射到本地的端口,6006代表的是服务器上的端口。 - ```shell - ssh -L 16006:127.0.0.1:6006 username@remote_server_ip - ``` - 2. 在服务上使用默认的6006端口正常启动tensorboard - ```shell - tensorboard --logdir=xxx --port=6006 - ``` - 3. 在本地的浏览器输入地址 - ```shell - 127.0.0.1:16006 或者 localhost:16006 - ``` -## 7.3.9 总结 - -对于TensorBoard来说,它的功能是很强大的,可以记录的东西不只限于本节所介绍的范围。 - -主要的实现方案是构建一个SummaryWriter,然后通过`add_XXX()`函数来实现。 - -其实TensorBoard的逻辑还是很简单的,它的**基本逻辑就是文件的读写逻辑**,写入想要可视化的数据,然后TensorBoard自己会读出来。 - -## 参考资料 - -1. https://blog.csdn.net/Python_Ai_Road/article/details/107704530 - - - diff --git "a/docs/_sources/\347\254\254\344\270\203\347\253\240/7.4 \344\275\277\347\224\250wandb\345\217\257\350\247\206\345\214\226\350\256\255\347\273\203\350\277\207\347\250\213.md.txt" "b/docs/_sources/\347\254\254\344\270\203\347\253\240/7.4 \344\275\277\347\224\250wandb\345\217\257\350\247\206\345\214\226\350\256\255\347\273\203\350\277\207\347\250\213.md.txt" deleted file mode 100644 index 9f7efa17b..000000000 --- "a/docs/_sources/\347\254\254\344\270\203\347\253\240/7.4 \344\275\277\347\224\250wandb\345\217\257\350\247\206\345\214\226\350\256\255\347\273\203\350\277\207\347\250\213.md.txt" +++ /dev/null @@ -1,181 +0,0 @@ -# 7.4 使用wandb可视化训练过程 - -在上一节中,我们使用了Tensorboard可视化训练过程,但是Tensorboard对数据的保存仅限于本地,也很难分析超参数不同对实验的影响。wandb的出现很好的解决了这些问题,因此在本章节中,我们将对wandb进行简要介绍。 -wandb是Weights & Biases的缩写,它能够自动记录模型训练过程中的超参数和输出指标,然后可视化和比较结果,并快速与其他人共享结果。目前它能够和Jupyter、TensorFlow、Pytorch、Keras、Scikit、fast.ai、LightGBM、XGBoost一起结合使用。 - -经过本节的学习,你将收获: - -- wandb的安装 -- wandb的使用 -- demo演示 - -## 7.4.1 wandb的安装 - -wandb的安装非常简单,我们只需要使用pip安装即可。 - -```python -pip install wandb -``` -安装完成后,我们需要在[官网](https://wandb.ai/)注册一个账号并复制下自己的API keys,然后在本地使用下面的命令登录。 - -```python -wandb login -``` -这时,我们会看到下面的界面,只需要粘贴你的API keys即可。 -![](./figures/wandb_api_keys.png) - -## 7.4.2 wandb的使用 - -wandb的使用也非常简单,只需要在代码中添加几行代码即可。 - -```python -import wandb -wandb.init(project='my-project', entity='my-name') -``` - -这里的project和entity是你在wandb上创建的项目名称和用户名,如果你还没有创建项目,可以参考[官方文档](https://docs.wandb.ai/quickstart)。 - -## 7.4.3 demo演示 - -下面我们使用一个CIFAR10的图像分类demo来演示wandb的使用。 - - -```python - -import random # to set the python random seed -import numpy # to set the numpy random seed -import torch -import torch.nn as nn -import torch.nn.functional as F -import torch.optim as optim -from torchvision import datasets, transforms -from torch.utils.data import DataLoader -from torchvision.models import resnet18 -import warnings -warnings.filterwarnings('ignore') -``` -使用wandb的第一步是初始化wandb,这里我们使用wandb.init()函数来初始化wandb,其中project是你在wandb上创建的项目名称,name是你的实验名称。 -```python -# 初始化wandb -import wandb -wandb.init(project="thorough-pytorch", - name="wandb_demo",) -``` -使用wandb的第二步是设置超参数,这里我们使用wandb.config来设置超参数,这样我们就可以在wandb的界面上看到超参数的变化。wandb.config的使用方法和字典类似,我们可以使用config.key的方式来设置超参数。 - -```python -# 超参数设置 -config = wandb.config # config的初始化 -config.batch_size = 64 -config.test_batch_size = 10 -config.epochs = 5 -config.lr = 0.01 -config.momentum = 0.1 -config.use_cuda = True -config.seed = 2043 -config.log_interval = 10 - -# 设置随机数 -def set_seed(seed): - random.seed(config.seed) - torch.manual_seed(config.seed) - numpy.random.seed(config.seed) - -``` -第三步是构建训练和测试的pipeline,这里我们使用pytorch的CIFAR10数据集和resnet18来构建训练和测试的pipeline。 -```python -def train(model, device, train_loader, optimizer): - model.train() - - for batch_id, (data, target) in enumerate(train_loader): - data, target = data.to(device), target.to(device) - optimizer.zero_grad() - output = model(data) - criterion = nn.CrossEntropyLoss() - loss = criterion(output, target) - loss.backward() - optimizer.step() - -# wandb.log用来记录一些日志(accuracy,loss and epoch), 便于随时查看网路的性能 -def test(model, device, test_loader, classes): - model.eval() - test_loss = 0 - correct = 0 - example_images = [] - - with torch.no_grad(): - for data, target in test_loader: - data, target = data.to(device), target.to(device) - output = model(data) - criterion = nn.CrossEntropyLoss() - test_loss += criterion(output, target).item() - pred = output.max(1, keepdim=True)[1] - correct += pred.eq(target.view_as(pred)).sum().item() - example_images.append(wandb.Image( - data[0], caption="Pred:{} Truth:{}".format(classes[pred[0].item()], classes[target[0]]))) - - # 使用wandb.log 记录你想记录的指标 - wandb.log({ - "Examples": example_images, - "Test Accuracy": 100. * correct / len(test_loader.dataset), - "Test Loss": test_loss - }) - -wandb.watch_called = False - - -def main(): - use_cuda = config.use_cuda and torch.cuda.is_available() - device = torch.device("cuda:0" if use_cuda else "cpu") - kwargs = {'num_workers': 1, 'pin_memory': True} if use_cuda else {} - - # 设置随机数 - set_seed(config.seed) - torch.backends.cudnn.deterministic = True - - # 数据预处理 - transform = transforms.Compose([ - transforms.ToTensor(), - transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)) - ]) - - # 加载数据 - train_loader = DataLoader(datasets.CIFAR10( - root='dataset', - train=True, - download=True, - transform=transform - ), batch_size=config.batch_size, shuffle=True, **kwargs) - - test_loader = DataLoader(datasets.CIFAR10( - root='dataset', - train=False, - download=True, - transform=transform - ), batch_size=config.batch_size, shuffle=False, **kwargs) - - classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck') - - model = resnet18(pretrained=True).to(device) - optimizer = optim.SGD(model.parameters(), lr=config.lr, momentum=config.momentum) - - wandb.watch(model, log="all") - for epoch in range(1, config.epochs + 1): - train(model, device, train_loader, optimizer) - test(model, device, test_loader, classes) - - # 本地和云端模型保存 - torch.save(model.state_dict(), 'model.pth') - wandb.save('model.pth') - - -if __name__ == '__main__': - main() - -``` -当我们运行完上面的代码后,我们就可以在wandb的界面上看到我们的训练结果了和系统的性能指标。同时,我们还可以在setting里面设置训练完给我们发送邮件,这样我们就可以在训练完之后及时的查看训练结果了。 -![](./figures/acc_wandb.png) -![](./figures/wandb_sys.png) -![](./figures/wandb_config.png) - -我们可以发现,使用wandb可以很方便的记录我们的训练结果,除此之外,wandb还为我们提供了很多的功能,比如:模型的超参数搜索,模型的版本控制,模型的部署等等。这些功能都可以帮助我们更好的管理我们的模型,更好的进行模型的迭代和优化。这些功能我们在后面的更新中会进行介绍。 \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\344\270\203\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\344\270\203\347\253\240/index.md.txt" deleted file mode 100644 index ef8287895..000000000 --- "a/docs/_sources/\347\254\254\344\270\203\347\253\240/index.md.txt" +++ /dev/null @@ -1,8 +0,0 @@ -# 第七章:PyTorch可视化 -```{toctree} -:maxdepth: 2 -7.1 可视化网络结构 -7.2 CNN卷积层可视化 -7.3 使用TensorBoard可视化训练过程 -7.4 使用wandb可视化训练过程 -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\344\270\211\347\253\240/3.1 \346\200\235\350\200\203\357\274\232\345\256\214\346\210\220\346\267\261\345\272\246\345\255\246\344\271\240\347\232\204\345\277\205\350\246\201\351\203\250\345\210\206.md.txt" "b/docs/_sources/\347\254\254\344\270\211\347\253\240/3.1 \346\200\235\350\200\203\357\274\232\345\256\214\346\210\220\346\267\261\345\272\246\345\255\246\344\271\240\347\232\204\345\277\205\350\246\201\351\203\250\345\210\206.md.txt" deleted file mode 100644 index 6c7d02e91..000000000 --- "a/docs/_sources/\347\254\254\344\270\211\347\253\240/3.1 \346\200\235\350\200\203\357\274\232\345\256\214\346\210\220\346\267\261\345\272\246\345\255\246\344\271\240\347\232\204\345\277\205\350\246\201\351\203\250\345\210\206.md.txt" +++ /dev/null @@ -1,20 +0,0 @@ -# 3.1 思考:完成深度学习的必要部分 - -经过本节的学习,你将收获: - -- 一项机器学习/深度学习任务的整体流程 -- 在机器学习和深度学习的每个部分的作用 - -一项机器学习任务时常常有以下的几个重要步骤,首先是**数据的预处理**,其中重要的步骤包括数据格式的统一、异常数据的消除和必要的数据变换,同时**划分训练集、验证集、测试集**,常见的方法包括:按比例随机选取,KFold方法(我们可以使用sklearn带的test_train_split函数、kfold来实现)。接下来**选择模型**,并设定**损失函数和优化方法**,以及对应的**超参数**(当然可以使用sklearn这样的机器学习库中模型自带的损失函数和优化器)。最后用模型去拟合训练集数据,并在**验证集/测试集上计算模型表现**。 - -深度学习和机器学习在流程上类似,但在代码实现上有较大的差异。首先,**由于深度学习所需的样本量很大,一次加载全部数据运行可能会超出内存容量而无法实现;同时还有批(batch)训练等提高模型表现的策略,需要每次训练读取固定数量的样本送入模型中训练**,因此深度学习在数据加载上需要有专门的设计。 - -在模型实现上,深度学习和机器学习也有很大差异。由于深度神经网络层数往往较多,同时会有一些用于实现特定功能的层(如卷积层、池化层、批正则化层、LSTM层等),因此**深度神经网络往往需要“逐层”搭建,或者预先定义好可以实现特定功能的模块,再把这些模块组装起来**。这种“定制化”的模型构建方式能够充分保证模型的灵活性,也对代码实现提出了新的要求。 - -接下来是损失函数和优化器的设定。这部分和经典机器学习的实现是类似的。但由于模型设定的灵活性,**因此损失函数和优化器要能够保证反向传播能够在用户自行定义的模型结构上实现**。 - -上述步骤完成后就可以开始训练了。我们前面介绍了GPU的概念和GPU用于并行计算加速的功能,不过**程序默认是在CPU上运行的**,因此在代码实现中,需要把模型和数据“放到”GPU上去做运算,同时还需要保证损失函数和优化器能够在GPU上工作。如果使用多张GPU进行训练,还需要考虑模型和数据分配、整合的问题。此外,后续计算一些指标还需要把数据“放回”CPU。这里涉及到了一系列**有关于GPU的配置和操作**。 - -**深度学习中训练和验证过程最大的特点在于读入数据是按批的,每次读入一个批次的数据,放入GPU中训练,然后将损失函数反向传播回网络最前面的层,同时使用优化器调整网络参数。这里会涉及到各个模块配合的问题。训练/验证后还需要根据设定好的指标计算模型表现。** - -经过以上步骤,一个深度学习任务就完成了。我们在详细讲解每个部分之前,先梳理了完成各个部分所需的功能,下面我们就去进一步了解一下PyTorch是如何实现各个部分的,以及PyTorch作为一个深度学习框架拥有的模块化特点。 diff --git "a/docs/_sources/\347\254\254\344\270\211\347\253\240/3.2 \345\237\272\346\234\254\351\205\215\347\275\256.md.txt" "b/docs/_sources/\347\254\254\344\270\211\347\253\240/3.2 \345\237\272\346\234\254\351\205\215\347\275\256.md.txt" deleted file mode 100644 index 57f77389a..000000000 --- "a/docs/_sources/\347\254\254\344\270\211\347\253\240/3.2 \345\237\272\346\234\254\351\205\215\347\275\256.md.txt" +++ /dev/null @@ -1,48 +0,0 @@ -# 3.2 基本配置 -对于一个PyTorch项目,我们需要导入一些Python常用的包来帮助我们快速实现功能。常见的包有os、numpy等,此外还需要调用PyTorch自身一些模块便于灵活使用,比如torch、torch.nn、torch.utils.data.Dataset、torch.utils.data.DataLoader、torch.optimizer等等。 - -经过本节的学习,你将收获: - -- 在深度学习/机器学习中常用到的包 -- GPU的配置 - -首先导入必须的包。注意这里**只是建议导入的包导入的方式**,可以采用不同的方案,比如涉及到表格信息的读入很可能用到pandas,对于不同的项目可能还需要导入一些更上层的包如cv2等。如果涉及可视化还会用到matplotlib、seaborn等。涉及到下游分析和指标计算也常用到sklearn。 - -```python -import os -import numpy as np -import torch -import torch.nn as nn -from torch.utils.data import Dataset, DataLoader -import torch.optim as optimizer -``` - -根据前面我们对深度学习任务的梳理,有如下几个超参数可以统一设置,方便后续调试时修改: - -- batch size -- 初始学习率(初始) -- 训练次数(max_epochs) -- GPU配置 - -```python -batch_size = 16 -# 批次的大小 -lr = 1e-4 -# 优化器的学习率 -max_epochs = 100 -``` -除了直接将超参数设置在训练的代码里,我们也可以使用yaml、json,dict等文件来存储超参数,这样可以方便后续的调试和修改,这种方式也是常见的深度学习库(mmdetection,Paddledetection,detectron2)和一些AI Lab里面比较常见的一种参数设置方式。 - -我们的数据和模型如果没有经过显式指明设备,默认会存储在CPU上,为了加速模型的训练,我们需要显式调用GPU,一般情况下GPU的设置有两种常见的方式: - -```python -# 方案一:使用os.environ,这种情况如果使用GPU不需要设置 -import os -os.environ['CUDA_VISIBLE_DEVICES'] = '0,1' # 指明调用的GPU为0,1号 - -# 方案二:使用“device”,后续对要使用GPU的变量用.to(device)即可 -device = torch.device("cuda:1" if torch.cuda.is_available() else "cpu") # 指明调用的GPU为1号 -``` - - -当然还会有一些其他模块或用户自定义模块会用到的参数,有需要也可以在一开始进行设置。 \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\344\270\211\347\253\240/3.3 \346\225\260\346\215\256\350\257\273\345\205\245.md.txt" "b/docs/_sources/\347\254\254\344\270\211\347\253\240/3.3 \346\225\260\346\215\256\350\257\273\345\205\245.md.txt" deleted file mode 100644 index fc7232b45..000000000 --- "a/docs/_sources/\347\254\254\344\270\211\347\253\240/3.3 \346\225\260\346\215\256\350\257\273\345\205\245.md.txt" +++ /dev/null @@ -1,102 +0,0 @@ -# 3.3 数据读入 - -PyTorch数据读入是通过Dataset+DataLoader的方式完成的,Dataset定义好数据的格式和数据变换形式,DataLoader用iterative的方式不断读入批次数据。 - -经过本节的学习,你将收获: - -- PyTorch常见的数据读取方式 -- 构建自己的数据读取流程 - -我们可以定义自己的Dataset类来实现灵活的数据读取,定义的类需要继承PyTorch自身的Dataset类。主要包含三个函数: - -- `__init__`: 用于向类中传入外部参数,同时定义样本集 -- `__getitem__`: 用于逐个读取样本集合中的元素,可以进行一定的变换,并将返回训练/验证所需的数据 -- `__len__`: 用于返回数据集的样本数 - -下面以cifar10数据集为例给出构建Dataset类的方式: - -```python -import torch -from torchvision import datasets -train_data = datasets.ImageFolder(train_path, transform=data_transform) -val_data = datasets.ImageFolder(val_path, transform=data_transform) -``` - -这里使用了PyTorch自带的ImageFolder类的用于读取按一定结构存储的图片数据(path对应图片存放的目录,目录下包含若干子目录,每个子目录对应属于同一个类的图片)。 - -其中`data_transform`可以对图像进行一定的变换,如翻转、裁剪等操作,可自己定义。这里我们会在下一章通过实战加以介绍并在[notebook](https://github.com/datawhalechina/thorough-pytorch/tree/main/notebook/%E7%AC%AC%E5%85%AB%E7%AB%A0%20PyTorch%E7%94%9F%E6%80%81%E7%AE%80%E4%BB%8B)中做了示例代码。 - -这里我们给出一个自己定制Dataset的例子 - -```python - -import os -import pandas as pd -from torchvision.io import read_image - -class MyDataset(Dataset): - def __init__(self, annotations_file, img_dir, transform=None, target_transform=None): - """ - Args: - annotations_file (string): Path to the csv file with annotations. - img_dir (string): Directory with all the images. - transform (callable, optional): Optional transform to be applied - on a sample. - target_transform (callable, optional): Optional transform to be applied - on the target. - """ - self.img_labels = pd.read_csv(annotations_file) - self.img_dir = img_dir - self.transform = transform - self.target_transform = target_transform - - def __len__(self): - return len(self.img_labels) - - def __getitem__(self, idx): - """ - Args: - idx (int): Index - """ - img_path = os.path.join(self.img_dir, self.img_labels.iloc[idx, 0]) - image = read_image(img_path) - label = self.img_labels.iloc[idx, 1] - if self.transform: - image = self.transform(image) - if self.target_transform: - label = self.target_transform(label) - return image, label -``` -其中,我们的标签类似于以下的形式: -```csv -image1.jpg, 0 -image2.jpg, 1 -...... -image9.jpg, 9 -``` -构建好Dataset后,就可以使用DataLoader来按批次读入数据了,实现代码如下: - -```python -from torch.utils.data import DataLoader - -train_loader = torch.utils.data.DataLoader(train_data, batch_size=batch_size, num_workers=4, shuffle=True, drop_last=True) -val_loader = torch.utils.data.DataLoader(val_data, batch_size=batch_size, num_workers=4, shuffle=False) -``` - -其中: - -- batch_size:样本是按“批”读入的,batch_size就是每次读入的样本数 -- num_workers:有多少个进程用于读取数据,Windows下该参数设置为0,Linux下常见的为4或者8,根据自己的电脑配置来设置 -- shuffle:是否将读入的数据打乱,一般在训练集中设置为True,验证集中设置为False -- drop_last:对于样本最后一部分没有达到批次数的样本,使其不再参与训练 - -这里可以看一下我们的加载的数据。PyTorch中的DataLoader的读取可以使用next和iter来完成 - -```python -import matplotlib.pyplot as plt -images, labels = next(iter(val_loader)) -print(images.shape) -plt.imshow(images[0].transpose(1,2,0)) -plt.show() -``` - diff --git "a/docs/_sources/\347\254\254\344\270\211\347\253\240/3.8 \345\217\257\350\247\206\345\214\226.md.txt" "b/docs/_sources/\347\254\254\344\270\211\347\253\240/3.8 \345\217\257\350\247\206\345\214\226.md.txt" deleted file mode 100644 index 65ca3520c..000000000 --- "a/docs/_sources/\347\254\254\344\270\211\347\253\240/3.8 \345\217\257\350\247\206\345\214\226.md.txt" +++ /dev/null @@ -1,4 +0,0 @@ -# 3.8 可视化 - -在PyTorch深度学习中,可视化是一个可选项,指的是某些任务在训练完成后,需要对一些必要的内容进行可视化,比如分类的ROC曲线,卷积网络中的卷积核,以及训练/验证过程的损失函数曲线等等。具体的可视化方法可以参考第七章。 - diff --git "a/docs/_sources/\347\254\254\344\270\211\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\344\270\211\347\253\240/index.md.txt" deleted file mode 100644 index 0d2898995..000000000 --- "a/docs/_sources/\347\254\254\344\270\211\347\253\240/index.md.txt" +++ /dev/null @@ -1,13 +0,0 @@ -# 第三章:PyTorch的主要组成模块 -```{toctree} -:maxdepth: 2 -3.1 思考:完成深度学习的必要部分 -3.2 基本配置 -3.3 数据读入 -3.4 模型构建 -3.5 模型初始化 -3.6 损失函数 -3.7 训练与评估 -3.8 可视化 -3.9 优化器 -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\344\271\235\347\253\240/9.1 \344\275\277\347\224\250ONNX\350\277\233\350\241\214\351\203\250\347\275\262\345\271\266\346\216\250\347\220\206.md.txt" "b/docs/_sources/\347\254\254\344\271\235\347\253\240/9.1 \344\275\277\347\224\250ONNX\350\277\233\350\241\214\351\203\250\347\275\262\345\271\266\346\216\250\347\220\206.md.txt" deleted file mode 100644 index 68864501d..000000000 --- "a/docs/_sources/\347\254\254\344\271\235\347\253\240/9.1 \344\275\277\347\224\250ONNX\350\277\233\350\241\214\351\203\250\347\275\262\345\271\266\346\216\250\347\220\206.md.txt" +++ /dev/null @@ -1,322 +0,0 @@ -# 9.1 使用ONNX进行部署并推理 - -深度学习的最终目的是要实现模型的部署以方便我们的生活和解决传统方法不能解决的问题。通常人们会将模型部署在手机端、开发板,嵌入式设备上,但是这些设备上由于框架的规模,环境依赖,算力的限制,我们无法直接使用训练好的权重进行推理,因此我们需要将得到的权重进行变换才能使我们的模型可以成功部署在上述设备上。而经过工业界和学术界多年的探索,出现了以下的模型部署pipeline: - -框架 - -而在本节中我们会将PyTorch训练好的模型转换为ONNX 格式,然后使用ONNX Runtime运行它进行推理。通过本节课的学习,你将收获: - -1. 模型部署的整体流程 -2. 使用torch.onnx进行模型格式的转化 -3. 使用ONNX Runtime进行模型推理 -4. 完整的官方代码解释 - -## 9.1.1 ONNX和ONNX Runtime简介 - -### 9.1.1.1 ONNX简介 - -- ONNX官网:https://onnx.ai/ -- ONNX GitHub:https://github.com/onnx/onnx - -**ONNX( Open Neural Network Exchange)** 是 Facebook (现Meta) 和微软在2017年共同发布的,用于标准描述计算图的一种格式。ONNX通过定义一组与环境和平台无关的标准格式,使AI模型可以在不同框架和环境下交互使用,ONNX可以看作深度学习框架和部署端的桥梁,就像编译器的中间语言一样。由于各框架兼容性不一,我们通常只用 ONNX 表示更容易部署的静态图。硬件和软件厂商只需要基于ONNX标准优化模型性能,让所有兼容ONNX标准的框架受益。目前,ONNX主要关注在模型预测方面,使用不同框架训练的模型,转化为ONNX格式后,可以很容易的部署在兼容ONNX的运行环境中。目前,在微软,亚马逊 ,Facebook(现Meta) 和 IBM 等公司和众多开源贡献的共同维护下,ONNX 已经对接了下图的多种深度学习框架和多种推理引擎。 - -![image-20220805222147320](./figures/frameworks.png) - -### 9.1.1.2 ONNX Runtime简介 - -- ONNX Runtime官网:https://www.onnxruntime.ai/ -- ONNX Runtime GitHub:https://github.com/microsoft/onnxruntime - -**ONNX Runtime** 是由微软维护的一个跨平台机器学习推理加速器,它直接对接ONNX,可以直接读取.onnx文件并实现推理,不需要再把 .onnx 格式的文件转换成其他格式的文件。PyTorch借助ONNX Runtime也完成了部署的最后一公里,构建了 PyTorch --> ONNX --> ONNX Runtime 部署流水线,我们只需要将模型转换为 .onnx 文件,并在 ONNX Runtime 上运行模型即可。 - -### 9.1.1.3 ONNX和ONNX Runtime的安装 - -ONNX和ONNX Runtime作为python的一个包与其他包的安装方法相同,我们可以选择使用conda或者pip进行安装,只需要输入以下命令即可: - -```shell -# 激活虚拟环境 -conda activate env_name # env_name换成环境名称 -# 安装onnx -pip install onnx -# 安装onnx runtime -pip install onnxruntime # 使用CPU进行推理 -# pip install onnxruntime-gpu # 使用GPU进行推理 -``` - -除此之外,我们还需要注意ONNX和ONNX Runtime之间的适配关系。我们可以访问ONNX Runtime的Github进行查看,链接地址如下: - -ONNX和ONNX Runtime的适配关系:https://github.com/microsoft/onnxruntime/blob/master/docs/Versioning.md - -当我们想使用GPU进行推理时,我们需要先将安装的onnxruntime卸载,再安装onnxruntime-gpu,同时我们还需要考虑ONNX Runtime与CUDA之间的适配关系,我们可以参考以下链接进行查看: - -ONNX Runtime和CUDA之间的适配关系:https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html - -## 9.1.2 模型导出为ONNX - -### 9.1.2.1 模型转换为ONNX格式 - -在接下来的部分,我们将使用`torch.onnx.export()`把模型转换成 ONNX 格式的函数。模型导成onnx格式前,我们必须调用`model.eval()`或者`model.train(False)`以确保我们的模型处在推理模式下,避免因为`dropout`或`batchnorm`等运算符在推理和训练模式下的不同产生错误。(因为本课程偏向实战,对于ONNX的内部流程不做过多赘述,有兴趣的同学可以进行更深一步了解) - -```python -import torch.onnx -# 转换的onnx格式的名称,文件后缀需为.onnx -onnx_file_name = "xxxxxx.onnx" -# 我们需要转换的模型,将torch_model设置为自己的模型 -model = torch_model -# 加载权重,将model.pth转换为自己的模型权重 -# 如果模型的权重是使用多卡训练出来,我们需要去除权重中多的module. 具体操作可以见5.4节 -model = model.load_state_dict(torch.load("model.pth")) -# 导出模型前,必须调用model.eval()或者model.train(False) -model.eval() -# dummy_input就是一个输入的实例,仅提供输入shape、type等信息 -batch_size = 1 # 随机的取值,当设置dynamic_axes后影响不大 -dummy_input = torch.randn(batch_size, 1, 224, 224, requires_grad=True) -# 这组输入对应的模型输出 -output = model(dummy_input) -# 导出模型 -torch.onnx.export(model, # 模型的名称 - dummy_input, # 一组实例化输入 - onnx_file_name, # 文件保存路径/名称 - export_params=True, # 如果指定为True或默认, 参数也会被导出. 如果你要导出一个没训练过的就设为 False. - opset_version=10, # ONNX 算子集的版本,当前已更新到15 - do_constant_folding=True, # 是否执行常量折叠优化 - input_names = ['input'], # 输入模型的张量的名称 - output_names = ['output'], # 输出模型的张量的名称 - # dynamic_axes将batch_size的维度指定为动态, - # 后续进行推理的数据可以与导出的dummy_input的batch_size不同 - dynamic_axes={'input' : {0 : 'batch_size'}, - 'output' : {0 : 'batch_size'}}) - -``` - -### 9.1.2.2 ONNX模型的检验 - -当上述代码运行成功后,我们会得到一个ONNX 模型文件。我们需要检测下我们的模型文件是否可用,我们将通过`onnx.checker.check_model()`进行检验,具体方法如下: - -```python -import onnx -# 我们可以使用异常处理的方法进行检验 -try: - # 当我们的模型不可用时,将会报出异常 - onnx.checker.check_model(self.onnx_model) -except onnx.checker.ValidationError as e: - print("The model is invalid: %s"%e) -else: - # 模型可用时,将不会报出异常,并会输出“The model is valid!” - print("The model is valid!") -``` - -### 9.1.2.3 ONNX可视化 - -在将模型导出为onnx格式后,我们希望有个工具可以像Tensorboard一样可视化模型来观察每个节点的属性特征。随着`Netron`的出现,我们也可以实现onnx的可视化。 -- Netron下载网址:https://github.com/lutzroeder/netron -![img](figures/screenshot.png) - -使用Netron进行可视化后,我们不仅能看到整体模型的架构,还能看到每一个节点的信息。在接下来的内容中我们将以Netron官方提供的[squeezenet](https://netron.app/?url=https://media.githubusercontent.com/media/onnx/models/main/vision/classification/squeezenet/model/squeezenet1.0-3.onnx)为例进行介绍。下面第一幅图截取自squeezenet网络,我们可以看到网络的整体流程和输入。 - - - -第二幅图显示了第一个Conv的信息包括kernel_size,strides,input,output等信息,同理当我们点击其他节点时也可以显示该节点的信息。 - -![image-20220805221657416](./figures/node.png) - -## 9.1.3 使用ONNX Runtime进行推理 - -通过以上的操作,我们已经完成了PyTorch的模型到ONNX模型的转换,并通过Netron可视化和`onnx.checker.check_model()`检查了模型的正确性。在这一步,我们将使用ONNX Runtime运行一下转化后的模型,看一下推理后的结果。 - -```python -# 导入onnxruntime -import onnxruntime -# 需要进行推理的onnx模型文件名称 -onnx_file_name = "xxxxxx.onnx" - -# onnxruntime.InferenceSession用于获取一个 ONNX Runtime 推理器 -ort_session = onnxruntime.InferenceSession(onnx_file_name) - -# 构建字典的输入数据,字典的key需要与我们构建onnx模型时的input_names相同 -# 输入的input_img 也需要改变为ndarray格式 -ort_inputs = {'input': input_img} -# 我们更建议使用下面这种方法,因为避免了手动输入key -# ort_inputs = {ort_session.get_inputs()[0].name:input_img} - -# run是进行模型的推理,第一个参数为输出张量名的列表,一般情况可以设置为None -# 第二个参数为构建的输入值的字典 -# 由于返回的结果被列表嵌套,因此我们需要进行[0]的索引 -ort_output = ort_session.run(None,ort_inputs)[0] -# output = {ort_session.get_outputs()[0].name} -# ort_output = ort_session.run([output], ort_inputs)[0] - -``` - -在上述的步骤中,我们有几个需要注意的点: - -1. PyTorch模型的输入为tensor,而ONNX的输入为array,因此我们需要对张量进行变换或者直接将数据读取为array格式,我们可以实现下面的方式进行张量到array的转化。 - -```python -def to_numpy(tensor): - return tensor.detach().cpu().numpy() if tensor.requires_grad else tensor.cpu().numpy() -``` - -2. 输入的array的shape应该和我们导出模型的`dummy_input`的shape相同,如果图片大小不一样,我们应该先进行resize操作。 -3. run的结果是一个列表,我们需要进行索引操作才能获得array格式的结果。 -4. 在构建输入的字典时,我们需要注意字典的key应与导出ONNX格式设置的input_name相同,因此我们更建议使用上述的第二种方法构建输入的字典。 - -## 9.1.4 代码实战 - -本部分代码选自PyTorch官网示例代码,访问链接可点击下方推荐阅读2进行查看和使用官网提供的Colab对onnx导出进行进一步理解。*如有侵权,可立即删除* - -### 1. 定义超分辨模型 - -```python -# 导入相关包 -import io -import numpy as np -from torch import nn -import torch.utils.model_zoo as model_zoo -import torch.onnx -import torch.nn as nn -import torch.nn.init as init - -# 定义超分辨网络 -class SuperResolutionNet(nn.Module): - def __init__(self, upscale_factor, inplace=False): - super(SuperResolutionNet, self).__init__() - - self.relu = nn.ReLU(inplace=inplace) - self.conv1 = nn.Conv2d(1, 64, (5, 5), (1, 1), (2, 2)) - self.conv2 = nn.Conv2d(64, 64, (3, 3), (1, 1), (1, 1)) - self.conv3 = nn.Conv2d(64, 32, (3, 3), (1, 1), (1, 1)) - self.conv4 = nn.Conv2d(32, upscale_factor ** 2, (3, 3), (1, 1), (1, 1)) - self.pixel_shuffle = nn.PixelShuffle(upscale_factor) - - self._initialize_weights() - - def forward(self, x): - x = self.relu(self.conv1(x)) - x = self.relu(self.conv2(x)) - x = self.relu(self.conv3(x)) - x = self.pixel_shuffle(self.conv4(x)) - return x - - # 模型初始化 - def _initialize_weights(self): - init.orthogonal_(self.conv1.weight, init.calculate_gain('relu')) - init.orthogonal_(self.conv2.weight, init.calculate_gain('relu')) - init.orthogonal_(self.conv3.weight, init.calculate_gain('relu')) - init.orthogonal_(self.conv4.weight) - -# 实例化模型 -torch_model = SuperResolutionNet(upscale_factor=3) -``` - -### 2. 模型导出为ONNX格式 - -```python -model_url = 'https://s3.amazonaws.com/pytorch/test_data/export/superres_epoch100-44c6958e.pth' -batch_size = 1 # just a random number -# 加载预训练得到权重 -map_location = lambda storage, loc: storage -if torch.cuda.is_available(): - map_location = None -torch_model.load_state_dict(model_zoo.load_url(model_url, map_location=map_location)) - -# 将模型设置为推理模式 -torch_model.eval() -# Input to the model -x = torch.randn(batch_size, 1, 224, 224, requires_grad=True) -torch_out = torch_model(x) - -# 导出模型 -torch.onnx.export(torch_model, # model being run - x, # model input (or a tuple for multiple inputs) - "super_resolution.onnx", # where to save the model (can be a file or file-like object) - export_params=True, # store the trained parameter weights inside the model file - opset_version=10, # the ONNX version to export the model to - do_constant_folding=True, # whether to execute constant folding for optimization - input_names = ['input'], # the model's input names - output_names = ['output'], # the model's output names - # variable length axes - dynamic_axes={'input' : {0 : 'batch_size'}, - 'output' : {0 : 'batch_size'}}) -``` - -### 3. 检验ONNX模型 - -```python -import onnx -# 我们可以使用异常处理的方法进行检验 -try: - # 当我们的模型不可用时,将会报出异常 - onnx.checker.check_model("super_resolution.onnx") -except onnx.checker.ValidationError as e: - print("The model is invalid: %s"%e) -else: - # 模型可用时,将不会报出异常,并会输出“The model is valid!” - print("The model is valid!") -``` - -### 4. 使用ONNX Runtime进行推理 - -```python -import onnxruntime - -ort_session = onnxruntime.InferenceSession("super_resolution.onnx") - -# 将张量转化为ndarray格式 -def to_numpy(tensor): - return tensor.detach().cpu().numpy() if tensor.requires_grad else tensor.cpu().numpy() - -# 构建输入的字典和计算输出结果 -ort_inputs = {ort_session.get_inputs()[0].name: to_numpy(x)} -ort_outs = ort_session.run(None, ort_inputs) - -# 比较使用PyTorch和ONNX Runtime得出的精度 -np.testing.assert_allclose(to_numpy(torch_out), ort_outs[0], rtol=1e-03, atol=1e-05) - -print("Exported model has been tested with ONNXRuntime, and the result looks good!") -``` - -### 5. 进行实际预测并可视化 - -```python -from PIL import Image -import torchvision.transforms as transforms - -# 读取图片 -img = Image.open("/cat_224x224.jpg") -# 对图片进行resize操作 -resize = transforms.Resize([224, 224]) -img = resize(img) - -img_ycbcr = img.convert('YCbCr') -img_y, img_cb, img_cr = img_ycbcr.split() - -to_tensor = transforms.ToTensor() -img_y = to_tensor(img_y) -img_y.unsqueeze_(0) -# 构建输入的字典并将value转换位array格式 -ort_inputs = {ort_session.get_inputs()[0].name: to_numpy(img_y)} -ort_outs = ort_session.run(None, ort_inputs) -img_out_y = ort_outs[0] -img_out_y = Image.fromarray(np.uint8((img_out_y[0] * 255.0).clip(0, 255)[0]), mode='L') - -# 保存最后得到的图片 -final_img = Image.merge( - "YCbCr", [ - img_out_y, - img_cb.resize(img_out_y.size, Image.BICUBIC), - img_cr.resize(img_out_y.size, Image.BICUBIC), - ]).convert("RGB") - -final_img.save("/cat_superres_with_ort.jpg") -``` - -## 参考资料 - -1. [miscroft-将 PyTorch 训练模型转换为 ONNX](https://docs.microsoft.com/zh-cn/windows/ai/windows-ml/tutorials/pytorch-convert-model) -2. [pytorch- EXPORTING A MODEL FROM PYTORCH TO ONNX AND RUNNING IT USING ONNX RUNTIME](https://pytorch.org/tutorials/advanced/super_resolution_with_onnxruntime.html) -3. [ONNX tutorials](https://github.com/onnx/tutorials#converting-to-onnx-format) - diff --git "a/docs/_sources/\347\254\254\344\271\235\347\253\240/9.1 \345\233\276\345\203\217\345\210\206\347\261\273.md.txt" "b/docs/_sources/\347\254\254\344\271\235\347\253\240/9.1 \345\233\276\345\203\217\345\210\206\347\261\273.md.txt" deleted file mode 100644 index 94444adf6..000000000 --- "a/docs/_sources/\347\254\254\344\271\235\347\253\240/9.1 \345\233\276\345\203\217\345\210\206\347\261\273.md.txt" +++ /dev/null @@ -1 +0,0 @@ -# 9.1 图像分类(补充中) \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\344\271\235\347\253\240/9.2 \347\233\256\346\240\207\346\243\200\346\265\213.md.txt" "b/docs/_sources/\347\254\254\344\271\235\347\253\240/9.2 \347\233\256\346\240\207\346\243\200\346\265\213.md.txt" deleted file mode 100644 index 8d02e7c4e..000000000 --- "a/docs/_sources/\347\254\254\344\271\235\347\253\240/9.2 \347\233\256\346\240\207\346\243\200\346\265\213.md.txt" +++ /dev/null @@ -1,23 +0,0 @@ -# 目标检测 -## 目标检测概述 -目标检测是计算机视觉的一个重要任务,根据整张图像内容进行描述,并结合目标物体的特征信息,确定该物体的类别与位置。不同于图像分类任务中我们只需要输出图像中主要物体对象的类标,在目标检测任务中,一张图像里往往含有多个物体对象,我们不仅需要输出这些物体的类标,同时还需要输出这些物体的位置,在表示位置时,我们一般采用目标检测边缘框bounding box进行表示,bounding box是一组坐标值,常见形式为(x1,y1,x2,y2),其中x1代表物体左上x坐标,y1代表左上y坐标,x2代表物体右下x坐标,y2代表物体右下y坐标。 -## 目标检测应用 -目标检测技术不同于图像分类单一输出物体的种类,它将物体的位置和种类一起输出,这使得目标检测在一些领域有着重要的作用,目标检测常用于人脸检测、智慧交通、机器人、无人驾驶、遥感目标检测、安防领域检测异常、行人计数、安全系统等各大领域。 -## 目标检测数据集 -目标检测的数据集通常来说比图片分类的数据集小很多,因为每一张图片的标注的成本很高,相较于图片分类的常见标注方法是给定一个CSV文件(图片与标号一一对应)或者是给定一个文件夹(每个类对应一个子文件夹,对应标号的图片放在子文件夹下),但是对于目标检测来说因为一张图片中可能存在多个类,所以我们就不能放在子文件夹中,所以通常来说目标检测的数据集的标号需要额外存储,常见的存储格式有PASCAL VOC的格式和COCO的标注格式。假设使用文本文件存储的话,每一行表示一个物体,每一行分别由图片文件名(因为一张图片中可能有多个物体,所以同一个文件名可能会出现多次)、物体类别(标号)、边缘框(图片中物体的位置)组成,每一行一共有6(1+1+4)个值 -目标检测常用的数据集有PASCAL VOC2007, MS COCO -### COCO数据集 -目标检测中比较常见的数据集,类似于Imagenet在图片分类中的地位 -访问地址:https://cocodataset.org/#home -COCO数据集中有 80 个类别,330k 图片,1.5M 物体(每张图片中有多个物体) - -## 目标检测常用算法 -随着算力的发展和深度学习的发展,目标检测经历了从基于手工设计特征的方法到基于深度学习提取特征的阶段。在早期,目标检测技术往往采用手工设计特征(Haar特征、梯度直方图HOG)加分类器(SVM、AdaBoost)的方法实现。随着卷积神经网络的发展,目标检测出现了一系列的基于卷积神经网络的目标检测技术,包括R-CNN系列,SSD系列,YOLO系列等。随着Transformer在自然语言处理和计算机视觉的发展,也出现了基于Transformer的目标检测技术,代表工作有DETR系列。在本部分,我们主要介绍基于深度学习的目标检测技术并进行部分代码的解读。 -我们可以将基于深度学习的目标检测技术按照有无使用锚点框分为基于锚点框的目标检测方法(Anchor-based),无锚点框的目标检测方法(Anchor-free)和端到端的目标检测方法(Anchor-free)。其中端到端的目标检测技术也是属于特殊的无锚点框的目标检测方法。 -我们可以将基于锚点框的目标检测方法分为单阶段目标检测方法(One-Stage)和两阶段目标检测方法(Two-Stage),其中单阶段目标检测方法代表作有YOLO (You Only Look Once)和SSD (Single Shot Detector),两阶段目标检测方法的代表作有R-CNN(R-CNN,Fast RCNN,Faster RCNN,Mask RCNN,Cascade RCNN,SPPNet)系列。一般而言,两阶段目标检测具有较高的检测精度,而单阶段目标检测方法具有更高的精度。 -同样,我们可以将无锚点框的目标检测方法分为基于目标点的目标检测方法和基于内部点的目标检测方法。 -端到端的目标检测方法 - - - - diff --git "a/docs/_sources/\347\254\254\344\271\235\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\344\271\235\347\253\240/index.md.txt" deleted file mode 100644 index 1eae3e7a5..000000000 --- "a/docs/_sources/\347\254\254\344\271\235\347\253\240/index.md.txt" +++ /dev/null @@ -1,5 +0,0 @@ -# 第九章:PyTorch的模型部署 -```{toctree} -:maxdepth: 2 -9.1 使用ONNX进行部署并推理 -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\344\272\214\347\253\240/2.1 \345\274\240\351\207\217.md.txt" "b/docs/_sources/\347\254\254\344\272\214\347\253\240/2.1 \345\274\240\351\207\217.md.txt" deleted file mode 100644 index b9e127682..000000000 --- "a/docs/_sources/\347\254\254\344\272\214\347\253\240/2.1 \345\274\240\351\207\217.md.txt" +++ /dev/null @@ -1,252 +0,0 @@ -# 2.1 张量 - -从本章开始,我们将开始介绍PyTorch基础知识,本章我们将介绍张量,以帮助大家建立起对数据的描述,随后我们再介绍张量的运算,最后再讲PyTorch中所有神经网络的核心包 `autograd `,也就是自动微分,了解完这些内容我们就可以较好地理解PyTorch代码了。在深度学习中,我们通常将数据以张量的形式进行表示,比如我们用三维张量表示一个RGB图像,四维张量表示视频。 - -经过本节的学习,你将收获: - -- 张量的简介 -- PyTorch如何创建张量 -- PyTorch中张量的操作 -- PyTorch中张量的广播机制 - -## 2.1.1 简介 - -几何代数中定义的张量是基于向量和矩阵的推广,比如我们可以将标量视为零阶张量,矢量可以视为一阶张量,矩阵就是二阶张量。 -|张量维度|代表含义| -|---|---| -| 0维张量 | 代表的是标量(数字) | -| 1维张量 | 代表的是向量| -| 2维张量 |代表的是矩阵| -|3维张量 |时间序列数据 股价 文本数据 单张彩色图片(**RGB**)| - -张量是现代机器学习的基础。它的核心是一个数据容器,多数情况下,它包含数字,有时候它也包含字符串,但这种情况比较少。因此可以把它想象成一个数字的水桶。 - -这里有一些存储在各种类型张量的公用数据集类型: - -- **3维 = 时间序列** -- **4维 = 图像** -- **5维 = 视频** - -例子:一个图像可以用三个字段表示: - -``` -(width, height, channel) = 3D -``` - -但是,在机器学习工作中,我们经常要处理不止一张图片或一篇文档——我们要处理一个集合。我们可能有10,000张郁金香的图片,这意味着,我们将用到4D张量: - -``` -(batch_size, width, height, channel) = 4D -``` - -在PyTorch中, `torch.Tensor` 是存储和变换数据的主要工具。如果你之前用过`NumPy`,你会发现 `Tensor` 和NumPy的多维数组非常类似。然而,`Tensor` 提供GPU计算和自动求梯度等更多功能,这些使 `Tensor` 这一数据类型更加适合深度学习。 - - -## 2.1.2 创建tensor -在接下来的内容中,我们将介绍几种常见的创建`tensor`的方法。 - -1. 随机初始化矩阵 -我们可以通过`torch.rand()`的方法,构造一个随机初始化的矩阵: - -```python - -import torch -x = torch.rand(4, 3) -print(x) -``` -```python -tensor([[0.7569, 0.4281, 0.4722], - [0.9513, 0.5168, 0.1659], - [0.4493, 0.2846, 0.4363], - [0.5043, 0.9637, 0.1469]]) -``` -2. 全0矩阵的构建 -我们可以通过`torch.zeros()`构造一个矩阵全为 0,并且通过`dtype`设置数据类型为 long。除此以外,我们还可以通过torch.zero_()和torch.zeros_like()将现有矩阵转换为全0矩阵. - -```python -import torch -x = torch.zeros(4, 3, dtype=torch.long) -print(x) -``` -```python -tensor([[0, 0, 0], - [0, 0, 0], - [0, 0, 0], - [0, 0, 0]]) -``` -3. 张量的构建 - 我们可以通过`torch.tensor()`直接使用数据,构造一个张量: -```python -import torch -x = torch.tensor([5.5, 3]) -print(x) -``` -```python -tensor([5.5000, 3.0000]) -``` -4. 基于已经存在的 tensor,创建一个 tensor : - -```python -x = x.new_ones(4, 3, dtype=torch.double) -# 创建一个新的全1矩阵tensor,返回的tensor默认具有相同的torch.dtype和torch.device -# 也可以像之前的写法 x = torch.ones(4, 3, dtype=torch.double) -print(x) -x = torch.randn_like(x, dtype=torch.float) -# 重置数据类型 -print(x) -# 结果会有一样的size -# 获取它的维度信息 -print(x.size()) -print(x.shape) -``` -```python -tensor([[1., 1., 1.], - [1., 1., 1.], - [1., 1., 1.], - [1., 1., 1.]], dtype=torch.float64) -tensor([[ 2.7311, -0.0720, 0.2497], - [-2.3141, 0.0666, -0.5934], - [ 1.5253, 1.0336, 1.3859], - [ 1.3806, -0.6965, -1.2255]]) -torch.Size([4, 3]) -torch.Size([4, 3]) -``` -返回的torch.Size其实是一个tuple,⽀持所有tuple的操作。我们可以使用索引操作取得张量的长、宽等数据维度。 - -5. 常见的构造Tensor的方法: - -| 函数 | 功能 | -| --------------------: | --------------------------------------------------- | -| Tensor(sizes) | 基础构造函数 | -| tensor(data) | 类似于np.array | -| ones(sizes) | 全1 | -| zeros(sizes) | 全0 | -| eye(sizes) | 对角为1,其余为0 | -| arange(s,e,step) | 从s到e,步长为step | -| linspace(s,e,steps) | 从s到e,均匀分成step份 | -| rand/randn(sizes) | rand是[0,1)均匀分布;randn是服从N(0,1)的正态分布 | -| normal(mean,std) | 正态分布(均值为mean,标准差是std) | -| randperm(m) | 随机排列 | - -## 2.1.3 张量的操作 -在接下来的内容中,我们将介绍几种常见的张量的操作方法: -1. 加法操作: -```python -import torch -# 方式1 -y = torch.rand(4, 3) -print(x + y) - -# 方式2 -print(torch.add(x, y)) - -# 方式3 in-place,原值修改 -y.add_(x) -print(y) -``` -```python -tensor([[ 2.8977, 0.6581, 0.5856], - [-1.3604, 0.1656, -0.0823], - [ 2.1387, 1.7959, 1.5275], - [ 2.2427, -0.3100, -0.4826]]) -tensor([[ 2.8977, 0.6581, 0.5856], - [-1.3604, 0.1656, -0.0823], - [ 2.1387, 1.7959, 1.5275], - [ 2.2427, -0.3100, -0.4826]]) -tensor([[ 2.8977, 0.6581, 0.5856], - [-1.3604, 0.1656, -0.0823], - [ 2.1387, 1.7959, 1.5275], - [ 2.2427, -0.3100, -0.4826]]) - -``` -2. 索引操作:(类似于numpy) - -**需要注意的是:索引出来的结果与原数据共享内存,修改一个,另一个会跟着修改。如果不想修改,可以考虑使用copy()等方法** - -```python -import torch -x = torch.rand(4,3) -# 取第二列 -print(x[:, 1]) -``` -```python -tensor([-0.0720, 0.0666, 1.0336, -0.6965]) -``` - -```python -y = x[0,:] -y += 1 -print(y) -print(x[0, :]) # 源tensor也被改了了 -``` -```python -tensor([3.7311, 0.9280, 1.2497]) -tensor([3.7311, 0.9280, 1.2497]) -``` -3. 维度变换 -张量的维度变换常见的方法有`torch.view()`和`torch.reshape()`,下面我们将介绍第一中方法`torch.view()`: - -```python -x = torch.randn(4, 4) -y = x.view(16) -z = x.view(-1, 8) # -1是指这一维的维数由其他维度决定 -print(x.size(), y.size(), z.size()) -``` -```python -torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8]) -``` -注: `torch.view()` 返回的新`tensor`与源`tensor`共享内存(其实是同一个`tensor`),更改其中的一个,另外一个也会跟着改变。(顾名思义,view()仅仅是改变了对这个张量的观察角度) - -```python -x += 1 -print(x) -print(y) # 也加了了1 -``` -```python -tensor([[ 1.3019, 0.3762, 1.2397, 1.3998], - [ 0.6891, 1.3651, 1.1891, -0.6744], - [ 0.3490, 1.8377, 1.6456, 0.8403], - [-0.8259, 2.5454, 1.2474, 0.7884]]) -tensor([ 1.3019, 0.3762, 1.2397, 1.3998, 0.6891, 1.3651, 1.1891, -0.6744, - 0.3490, 1.8377, 1.6456, 0.8403, -0.8259, 2.5454, 1.2474, 0.7884]) -``` -上面我们说过torch.view()会改变原始张量,但是很多情况下,我们希望原始张量和变换后的张量互相不影响。为为了使创建的张量和原始张量不共享内存,我们需要使用第二种方法`torch.reshape()`, 同样可以改变张量的形状,但是此函数并不能保证返回的是其拷贝值,所以官方不推荐使用。推荐的方法是我们先用 `clone()` 创造一个张量副本然后再使用 `torch.view()`进行函数维度变换 。 - -注:使用 `clone()` 还有一个好处是会被记录在计算图中,即梯度回传到副本时也会传到源 Tensor 。 -3. 取值操作 -如果我们有一个元素 `tensor` ,我们可以使用 `.item()` 来获得这个 `value`,而不获得其他性质: - -```python -import torch -x = torch.randn(1) -print(type(x)) -print(type(x.item())) -``` -```python - - -``` -PyTorch中的 Tensor 支持超过一百种操作,包括转置、索引、切片、数学运算、线性代数、随机数等等,具体使用方法可参考[官方文档](https://pytorch.org/docs/stable/tensors.html)。 - -## 2.1.4 广播机制 - -当对两个形状不同的 Tensor 按元素运算时,可能会触发广播(broadcasting)机制:先适当复制元素使这两个 Tensor 形状相同后再按元素运算。 - -```python -x = torch.arange(1, 3).view(1, 2) -print(x) -y = torch.arange(1, 4).view(3, 1) -print(y) -print(x + y) -``` -```python -tensor([[1, 2]]) -tensor([[1], - [2], - [3]]) -tensor([[2, 3], - [3, 4], - [4, 5]]) -``` - -由于x和y分别是1行2列和3行1列的矩阵,如果要计算x+y,那么x中第一行的2个元素被广播 (复制)到了第二行和第三行,⽽y中第⼀列的3个元素被广播(复制)到了第二列。如此,就可以对2个3行2列的矩阵按元素相加。 diff --git "a/docs/_sources/\347\254\254\344\272\214\347\253\240/2.3 \345\271\266\350\241\214\350\256\241\347\256\227\347\256\200\344\273\213.md.txt" "b/docs/_sources/\347\254\254\344\272\214\347\253\240/2.3 \345\271\266\350\241\214\350\256\241\347\256\227\347\256\200\344\273\213.md.txt" deleted file mode 100644 index 94a4e9756..000000000 --- "a/docs/_sources/\347\254\254\344\272\214\347\253\240/2.3 \345\271\266\350\241\214\350\256\241\347\256\227\347\256\200\344\273\213.md.txt" +++ /dev/null @@ -1,269 +0,0 @@ -# 2.3 并行计算简介 - -在利用PyTorch做深度学习的过程中,可能会遇到数据量较大无法在单块GPU上完成,或者需要提升计算速度的场景,这时就需要用到并行计算。完成本节内容时,请你确保至少安装了一个NVIDIA GPU并安装了相关的驱动。 - -经过本节的学习,你将收获: - -- 并行计算的简介 -- CUDA简介 -- 并行计算的三种实现方式 -- 使用CUDA加速训练 - -## 2.3.1 为什么要做并行计算 - -深度学习的发展离不开算力的发展,GPU的出现让我们的模型可以训练的更快,更好。所以,如何充分利用GPU的性能来提高我们模型学习的效果,这一技能是我们必须要学习的。这一节,我们主要讲的就是PyTorch的并行计算。PyTorch可以在编写完模型之后,让多个GPU来参与训练,减少训练时间。你可以在命令行使用`nvidia-smi`命令来查看你的GPU信息和使用情况。 - -## 2.3.2 为什么需要CUDA - -`CUDA`是NVIDIA提供的一种GPU并行计算框架。对于GPU本身的编程,使用的是`CUDA`语言来实现的。但是,在我们使用PyTorch编写深度学习代码时,使用的`CUDA`又是另一个意思。在PyTorch使用 `CUDA`表示要开始要求我们的模型或者数据开始使用GPU了。 - -在编写程序中,当我们使用了 `.cuda()` 时,其功能是让我们的模型或者数据从CPU迁移到GPU上(默认是0号GPU)当中,通过GPU开始计算。 - -注: -1. 我们使用GPU时使用的是`.cuda()`而不是使用`.gpu()`。这是因为当前GPU的编程接口采用CUDA,但是市面上的GPU并不是都支持CUDA,只有部分NVIDIA的GPU才支持,AMD的GPU编程接口采用的是OpenCL,在现阶段PyTorch并不支持。 -2. 数据在GPU和CPU之间进行传递时会比较耗时,我们应当尽量避免数据的切换。 -3. GPU运算很快,但是在使用简单的操作时,我们应该尽量使用CPU去完成。 -4. 当我们的服务器上有多个GPU,我们应该指明我们使用的GPU是哪一块,如果我们不设置的话,tensor.cuda()方法会默认将tensor保存到第一块GPU上,等价于tensor.cuda(0),这将有可能导致爆出`out of memory`的错误。我们可以通过以下两种方式继续设置。 - 1. ```python - #设置在文件最开始部分 - import os - os.environ["CUDA_VISIBLE_DEVICE"] = "2" # 设置默认的显卡 - ``` - 2. ```bash - CUDA_VISBLE_DEVICE=0,1 python train.py # 使用0,1两块GPU - ``` - - -## 2.3.3 常见的并行的方法: - -### 网络结构分布到不同的设备中(Network partitioning) - -在刚开始做模型并行的时候,这个方案使用的比较多。其中主要的思路是,将一个模型的各个部分拆分,然后将不同的部分放入到GPU来做不同任务的计算。其架构如下: - -![模型并行.png](./figures/model_parllel.png) - -这里遇到的问题就是,不同模型组件在不同的GPU上时,GPU之间的传输就很重要,对于GPU之间的通信是一个考验。但是GPU的通信在这种密集任务中很难办到,所以这个方式慢慢淡出了视野。 - -### 同一层的任务分布到不同数据中(Layer-wise partitioning) - -第二种方式就是,同一层的模型做一个拆分,让不同的GPU去训练同一层模型的部分任务。其架构如下: - -![拆分.png](./figures/split.png) - -这样可以保证在不同组件之间传输的问题,但是在我们需要大量的训练,同步任务加重的情况下,会出现和第一种方式一样的问题。 - -### 不同的数据分布到不同的设备中,执行相同的任务(Data parallelism) - -第三种方式有点不一样,它的逻辑是,我不再拆分模型,我训练的时候模型都是一整个模型。但是我将输入的数据拆分。所谓的拆分数据就是,同一个模型在不同GPU中训练一部分数据,然后再分别计算一部分数据之后,只需要将输出的数据做一个汇总,然后再反传。其架构如下: - -![数据并行.png](./figures/data_parllel.png) - -这种方式可以解决之前模式遇到的通讯问题。现在的主流方式是**数据并行**的方式(Data parallelism) - -## 2.3.4 使用CUDA加速训练 - -### 单卡训练 -在PyTorch框架下,CUDA的使用变得非常简单,我们只需要显式的将数据和模型通过`.cuda()`方法转移到GPU上就可加速我们的训练。如下: - -```python -model = Net() -model.cuda() # 模型显示转移到CUDA上 - -for image,label in dataloader: - # 图像和标签显示转移到CUDA上 - image = image.cuda() - label = label.cuda() -``` - -### 多卡训练 - -PyTorch提供了两种多卡训练的方式,分别为`DataParallel`和`DistributedDataParallel`(以下我们分别简称为DP和DDP)。这两种方法中官方更推荐我们使用`DDP`,因为它的性能更好。但是`DDP`的使用比较复杂,而`DP`经需要改变几行代码既可以实现,所以我们这里先介绍`DP`,再介绍`DDP`。 - -#### 单机多卡DP - -![DP.png](./figures/DP.png) - -首先我们来看单机多卡DP,通常使用一种叫做数据并行 (Data parallelism) 的策略,即将计算任务划分成多个子任务并在多个GPU卡上同时执行这些子任务。主要使用到了`nn.DataParallel`函数,它的使用非常简单,一般我们只需要加几行代码即可实现 - -```python -model = Net() -model.cuda() # 模型显示转移到CUDA上 - -if torch.cuda.device_count() > 1: # 含有多张GPU的卡 - model = nn.DataParallel(model) # 单机多卡DP训练 -``` - -除此之外,我们也可以指定GPU进行并行训练,一般有两种方式 - -- `nn.DataParallel`函数传入`device_ids`参数,可以指定了使用的GPU编号 - - ```python - model = nn.DataParallel(model, device_ids=[0,1]) # 使用第0和第1张卡进行并行训练 - ``` - -- 要**手动指定对程序可见的GPU设备** - - ```python - os.environ["CUDA_VISIBLE_DEVICES"] = "1,2" - ``` - -#### 多机多卡DDP - -![DP.png](./figures/DDP.png) - -不过通过DP进行分布式多卡训练的方式容易造成负载不均衡,有可能第一块GPU显存占用更多,因为输出默认都会被gather到第一块GPU上。为此Pytorch也提供了`torch.nn.parallel.DistributedDataParallel`(DDP)方法来解决这个问题。 - -针对每个GPU,启动一个进程,然后这些进程在最开始的时候会保持一致(模型的初始化参数也一致,每个进程拥有自己的优化器),同时在更新模型的时候,梯度传播也是完全一致的,这样就可以保证任何一个GPU上面的模型参数就是完全一致的,所以这样就不会出现`DataParallel`那样显存不均衡的问题。不过相对应的,会比较麻烦,接下来介绍一下多机多卡DDP的使用方法。 - -开始之前需要先熟悉几个概念,这些还是有必要提一下的 - -**进程组的相关概念** - -- **GROUP**:进程组,默认情况下,只有一个组,一个 job 即为一个组,也即一个 world。(当需要进行更加精细的通信时,可以通过 new_group 接口,使用 world 的子集,创建新组,用于集体通信等。) -- **WORLD_SIZE**:表示全局进程个数。如果是多机多卡就表示机器数量,如果是单机多卡就表示 GPU 数量。 -- **RANK**:表示进程序号,用于进程间通讯,表征进程优先级。rank = 0 的主机为 master 节点。 如果是多机多卡就表示对应第几台机器,如果是单机多卡,由于一个进程内就只有一个 GPU,所以 rank 也就表示第几块 GPU。 -- **LOCAL_RANK**:表示进程内,GPU 编号,非显式参数,由 torch.distributed.launch 内部指定。例如,多机多卡中 rank = 3,local_rank = 0 表示第 3 个进程内的第 1 块 GPU。 - - - -**DDP的基本用法 (代码编写流程)** - -- 在使用 `distributed` 包的任何其他函数之前,需要使用 `init_process_group` **初始化进程组**,同时初始化 `distributed` 包。 -- 使用 `torch.nn.parallel.DistributedDataParallel` 创建 **分布式模型** `DDP(model, device_ids=device_ids)` -- 使用 `torch.utils.data.distributed.DistributedSampler` 创建 **DataLoader** -- 使用启动工具 `torch.distributed.launch` 在每个主机上执行一次脚本,开始训练 - -首先是对代码进行修改,添加参数 --local_rank - -```python -import argparse -parser = argparse.ArgumentParser() -parser.add_argument("--local_rank", type=int) # 这个参数很重要 -args = parser.parse_args() -``` - -这里的local_rank参数,可以理解为`torch.distributed.launch`在给一个GPU创建进程的时候,给这个进程提供的GPU号,这个是程序自动给的,**不需要手动在命令行中指定这个参数。** - -```python -local_rank = int(os.environ["LOCAL_RANK"]) #也可以自动获取 -``` -然后在所有和GPU相关代码的前面添加如下代码,如果不写这句代码,所有的进程都默认在你使用`CUDA_VISIBLE_DEVICES`参数设定的0号GPU上面启动 - -```python -torch.cuda.set_device(args.local_rank) # 调整计算的位置 -``` - -接下来我们得初始化`backend`,也就是俗称的后端,pytorch介绍了以下后端: - -![Backends.png](./figures/backends.png) - -可以看到,提供了`gloo`,`nccl`,`mpi`,那么如何进行选择呢,官网中也给了以下建议 - -- 经验之谈 - - 如果是使用`cpu`的分布式计算, 建议使用`gloo`,因为表中可以看到 `gloo`对`cpu`的支持是最好的 - - 如果使用`gpu`进行分布式计算, 建议使用`nccl`。 - -- GPU主机 - - InfiniBand连接,建议使用`nccl`,因为它是目前唯一支持 InfiniBand 和 GPUDirect 的后端。 - - Ethernet连接,建议使用`nccl`,因为它的分布式GPU训练性能目前是最好的,特别是对于多进程单节点或多节点分布式训练。 如果在使用 `nccl`时遇到任何问题,可以使用`gloo` 作为后备选项。 (不过注意,对于 GPU,`gloo` 目前的运行速度比 `nccl` 慢。) -- CPU主机 - - InfiniBand连接,如果启用了IP over IB,那就使用`gloo`,否则使用`mpi` - - Ethernet连接,建议使用`gloo`,除非有不得已的理由使用`mpi`。 - -当后端选择好了之后, 我们需要设置一下网络接口, 因为多个主机之间肯定是使用网络进行交换, 那肯定就涉及到IP之类的, 对于`nccl`和`gloo`一般会自己寻找网络接口,不过有时候如果网卡比较多的时候,就需要自己设置,可以利用以下代码 - -```python -import os -# 以下二选一, 第一个是使用gloo后端需要设置的, 第二个是使用nccl需要设置的 -os.environ['GLOO_SOCKET_IFNAME'] = 'eth0' -os.environ['NCCL_SOCKET_IFNAME'] = 'eth0' -``` - -> 可以通过以下操作知道自己的网络接口,输入`ifconfig`, 然后找到自己IP地址的就是, 一般就是`em0`, `eth0`, `esp2s0`之类的, - -从以上介绍我们可以看出, 当使用GPU的时候, `nccl`的效率是高于`gloo`的,我们一般还是会选择`nccl`后端,设置GPU之间通信使用的后端和端口: - -```python -# ps 检查nccl是否可用 -# torch.distributed.is_nccl_available () -torch.distributed.init_process_group(backend='nccl') # 选择nccl后端,初始化进程组 -``` - - - -之后,使用 `DistributedSampler` 对数据集进行划分。它能帮助我们将每个 batch 划分成几个 partition,在当前进程中只需要获取和 rank 对应的那个 partition 进行训练: - - ```python - # 创建Dataloader - train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset) - train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=16, sampler=train_sampler) - ``` - -注意: testset不用sampler - -然后使用`torch.nn.parallel.DistributedDataParallel`包装模型: - -```python -# DDP进行训练 -model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank]) -``` - -**如何启动DDP** - -那么如何启动DDP,这不同于DP的方式,需要使用torch.distributed.launch启动器,对于单机多卡的情况: - - ```python - CUDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node=4 main.py - # nproc_per_node: 这个参数是指你使用这台服务器上面的几张显卡 - ``` - - > 有时候虽然说,可以简单使用DP,但是DDP的效率是比DP高的,所以很多时候单机多卡的情况,我们还是会去使用DDP - -### DP 与 DDP 的优缺点 - -#### DP 的优势 - -`nn.DataParallel`没有改变模型的输入输出,因此其他部分的代码不需要做任何更改,非常方便,一行代码即可搞定。 - -#### DP 的缺点 - -`DP`进行分布式多卡训练的方式容易造成负载不均衡,第一块GPU显存占用更多,因为输出默认都会被gather到第一块GPU上,也就是后续的loss计算只会在`cuda:0`上进行,没法并行。 - -除此之外`DP`只能在单机上使用,且`DP`是单进程多线程的实现方式,比`DDP`多进程多线程的方式会效率低一些。 - -#### DDP的优势 - -**1. 每个进程对应一个独立的训练过程,且只对梯度等少量数据进行信息交换。** - -**`DDP`** 在每次迭代中,每个进程具有自己的 `optimizer` ,并独立完成所有的优化步骤,进程内与一般的训练无异。 - -在各进程梯度计算完成之后,各进程需要将**梯度**进行汇总平均,然后再由 `rank=0` 的进程,将其 `broadcast` 到所有进程。之后,各进程用该梯度来独立的更新参数。而 `DP`是**梯度汇总到主** `GPU`,**反向传播更新参数**,再广播参数给其他的 GPU。 - -**`DDP`** 中由于各进程中的模型,初始参数一致 (初始时刻进行一次 `broadcast`),而每次用于更新参数的梯度也一致,因此,各进程的模型参数始终保持一致。 - -而在`DP` 中,全程维护一个 `optimizer`,对各 `GPU` 上梯度进行求和,而在主 `GPU` 进行参数更新,之后再将模型参数 `broadcast` 到其他 `GPU`。 - -相较于**`DP`**,**`DDP`**传输的数据量更少,因此速度更快,效率更高。 - -**2. 每个进程包含独立的解释器和 GIL。** - -一般使用的 `Python` 解释器 `CPython`:是用 `C` 语言实现 `Pyhon`,是目前应用最广泛的解释器。全局锁使 `Python` 在多线程效能上表现不佳,全局解释器锁(`Global Interpreter Lock`)是 `Python` 用于同步线程的工具,使得任何时刻仅有一个线程在执行。 - -由于每个进程拥有独立的解释器和 `GIL`,消除了来自单个 `Python` 进程中的多个执行线程,模型副本或 `GPU` 的额外解释器开销和 `GIL-thrashing` ,因此可以减少解释器和 `GIL` 使用冲突。这对于严重依赖 `Python runtime` 的 `models` 而言,比如说包含 `RNN` 层或大量小组件的 `models` 而言,这尤为重要。 - -#### DDP 的缺点 - -暂时来说,`DDP`是采用多进程多线程的方式,并且训练速度较高,他的缺点主要就是,需要修改比较多的代码,比`DP`的一行代码较为繁琐许多。 - - - -## 参考资料: - -1. [Pytorch 并行训练(DP, DDP)的原理和应用](https://blog.csdn.net/kuweicai/article/details/120516410) -2. [Pytorch中单机多卡分布式训练](https://zhuanlan.zhihu.com/p/447563272) -3. [Training Neural Nets on Larger Batches: Practical Tips for 1-GPU, Multi-GPU & Distributed setups](https://medium.com/huggingface/training-larger-batches-practical-tips-on-1-gpu-multi-gpu-distributed-setups-ec88c3e51255) -4. [DISTRIBUTEDDATAPARALLEL](https://pytorch.org/docs/stable/generated/torch.nn.parallel.DistributedDataParallel.html?highlight=distributeddataparallel#torch.nn.parallel.DistributedDataParallel) -4. [Pytorch 分布式训练(DP/DDP)](https://blog.csdn.net/ytusdc/article/details/122091284) -4. [DISTRIBUTED COMMUNICATION PACKAGE - TORCH.DISTRIBUTED](https://pytorch.org/docs/stable/distributed.html) -4. [pytorch多gpu并行训练](https://zhuanlan.zhihu.com/p/86441879) - diff --git "a/docs/_sources/\347\254\254\344\272\214\347\253\240/2.4 AI\347\241\254\344\273\266\345\212\240\351\200\237\350\256\276\345\244\207.md.txt" "b/docs/_sources/\347\254\254\344\272\214\347\253\240/2.4 AI\347\241\254\344\273\266\345\212\240\351\200\237\350\256\276\345\244\207.md.txt" deleted file mode 100644 index 7a1b64c9c..000000000 --- "a/docs/_sources/\347\254\254\344\272\214\347\253\240/2.4 AI\347\241\254\344\273\266\345\212\240\351\200\237\350\256\276\345\244\207.md.txt" +++ /dev/null @@ -1,184 +0,0 @@ -# AI硬件加速设备 - -在进行模型部署和训练时,我们有时会受限于CPU和GPU的性能。这时,专用的AI芯片就显得尤为重要。在正式开始本节内容之前,我们先了解一下什么是CPU和GPU。 - -CPU即Central Processing Unit,中文名为中央处理器,是我们电脑中的核心配件。它的功能主要是处理指令、执行操作、控制时间、处理数据。 - -在现代计算机体系结构中,CPU 对计算机的所有硬件资源(如存储器、输入输出单元) 进行控制调配、执行通用运算的核心硬件单元。CPU 是计算机的运算和控制核心。计算机系统中所有软件层的操作,最终都将通过指令集映射为CPU的操作。 - -GPU即Graphics Processing Unit,中文名为图形处理单元。在传统的冯·诺依曼结构中,CPU 每执行一条指令都需要从存储器中读取数据,根据指令对数据进行相应的操作。从这个特点可以看出,CPU 的主要职责并不只是数据运算,还需要执行存储读取、指令分析、分支跳转等命令。深度学习算法通常需要进行海量的数据处理,用 CPU 执行算法时,CPU 将花费大量的时间在数据/指令的读取分析上,而 CPU的频率、内存的带宽等条件又不可能无限制提高,因此限制了处理器的性能。而 GPU 的控制相对简单,大部分的晶体管可以组成各类专用电路、多条流水线,使得 GPU 的计算速度远高于CPU;同时 GPU 拥有了更加强大的浮点运算能力,可以缓解深度学习算法的训练难题,释放人工智能的潜能。 - -需要注意的是,GPU没有独立工作的能力,必须由CPU进行控制调用才能工作,且GPU的功耗一般比较高。因此,随着人工智能的不断发展,高功耗低效率的GPU不再能满足AI训练的要求,为此,一大批功能相对单一,但速度更快的专用集成电路相继问世。接下来我们了解一下什么是专用集成电路: - -专用集成电路(Application-Specific Integrated Circuit,ASIC)是专用定制芯片,即为实现特定要求而定制的芯片。定制的特性有助于提高 ASIC 的性能功耗比。ASIC的缺点是电路设计需要定制,相对开发周期长,功能难以扩展。但在功耗、可靠性、集成度等方面都有优势,尤其在要求高性能、低功耗的移动应用端体现明显。下文提到的谷歌的TPU,寒武纪的NPU都属于ASIC的范畴。 - -下面让我们进入本节的内容,经过本节的学习,你将收获: - -- 什么是TPU -- 什么是NPU - -## 2.4.1 TPU - -TPU即Tensor Processing Unit,中文名为张量处理器。2006年,谷歌开始计划为神经网络构建一个专用的集成电路(ASIC)。随着计算需求和数据量的不断上涨,这个需求在2013年开始变得尤为紧迫。于是,谷歌在2015年6月的IO开发者大会上推出了为优化自身的TensorFlow框架而设计打造的一款计算神经网络专用芯片。它主要用于进行搜索,图像,语音等模型和技术的处理。 - -截至目前,谷歌已经发行了四代TPU芯片。 - -### 芯片架构设计 - -TPU的设计架构如下图 - - - -上图:In-datacenter performance analysis of a tensor processing unit,figure 1 - -由上图可见,整个TPU中最重要的计算单元是右上角黄色的矩阵乘单元“Matrix Multiply Unit”,它包含256x256个MAC部件,每一个能够执行有符号或者无符号的8位乘加操作。它的输入为权重数据队列FIFO和统一缓冲Unified Buffer,即图中指向它的两个蓝色部分。在计算结束后,16位结果被收集并传递到位于矩阵单元下方的4MiB 32位蓝色累加器Accumulators中,之后由黄色的激活单元在累加后执行非线性函数,并最终将数据返回给统一缓冲。 - -Matrix Multiply Unit矩阵处理器作为TPU的核心部分,它可以在单个时钟周期内处理数十万次矩阵(Matrix)运算。MMU有着与传统CPU、GPU截然不同的架构,称为脉动阵列(systolic array)。之所以叫“脉动”,是因为在这种结构中,数据一波一波地流过芯片,与心脏跳动供血的方式类似。而如下图所示,CPU和GPU在每次运算中都需要从多个寄存器(register)中进行存取,而TPU的脉动阵列将多个运算逻辑单元(ALU)串联在一起,复用从一个寄存器中读取的结果。每个ALU单元结构简单,一般只包含乘法器、加法器以及寄存器三部分,适合大量堆砌。 - -![](./figures/CPU&NPU.png) - -但是,在极大增加数据复用、降低内存带宽压力的同时,脉动阵列也有两个缺点,即数据重排和规模适配。第一,脉动矩阵主要实现向量/矩阵乘法。以CNN计算为例,CNN数据进入脉动阵列需要调整好形式,并且严格遵循时钟节拍和空间顺序输入。数据重排的额外操作增加了复杂性。第二,在数据流经整个阵列后,才能输出结果。当计算的向量中元素过少,脉动阵列规模过大时,不仅难以将阵列中的每个单元都利用起来,数据的导入和导出延时也随着尺寸扩大而增加,降低了计算效率。因此在确定脉动阵列的规模时,在考虑面积、能耗、峰值计算能力的同时,还要考虑典型应用下的效率。 - -### 技术特点 - -#### AI加速专用 - -TPU的架构属于Domain-specific Architecture,也就是特定领域架构。它的定位准确,架构简单,单线程控制,定制指令集使得它在深度学习运算方面效率极高,且容易扩展。相比之下,传统诸如CPU、GPU等通用处理器必须考虑灵活性和兼容性,有太重的包袱。但TPU这种特点也决定它只能被限制用于深度学习加速场景。 - -#### 脉动阵列设计 - -TPU采用了与传统CPU和GPU截然不同的脉动阵列(systolic array)结构来加速AI运算,脉动阵列能够在一个时钟周期内处理数十万次矩阵运算,在每次运算过程中,TPU能够将多个运算逻辑单元(ALU)串联在一起,并复用从一个寄存器中取得的结果。这种设计,不仅能够将数据复用实现最大化,减少芯片在运算过程中的内存访问次数,提高AI计算效率,同时也降低了内存带宽压力,进而降低内存访问的能耗。 - -MMU的脉动阵列包含256 × 256 = 65,536个ALU,也就是说TPU每个周期可以处理65,536次8位整数的乘法和加法。 - -TPU以700兆赫兹的功率运行,也就是说,它每秒可以运行65,536 × 700,000,000 = 46 × 1012次乘法和加法运算,或每秒92万亿(92 × 1012)次矩阵单元中的运算。 - - - -上图:In-datacenter performance analysis of a tensor processing unit,figure 4 - -#### 确定性功能和大规模片上内存 - -如图是TPU的平面设计简图,黄色为MMU运算单元,蓝色是统一缓存和累加器等数据单元,绿色是I/O,红色是逻辑控制单元。 - - - -上图:In-datacenter performance analysis of a tensor processing unit,figure 2 - -传统GPU由于片上内存较少,因此在运行过程中需要不断地去访问片外动态随机存取存储器(DRAM),从而在一定程度上浪费了不必要的能耗。与CPU和GPU相比,TPU的控制单元更小,更容易设计,面积只占了整个冲模的2%,给片上存储器和运算单元留下了更大的空间。如上图所示的TPU一代架构中,总共设计了占总芯片面积35%的内存,其中包括24MB的局部内存、4MB的累加器内存,以及用于与主控处理器对接的内存。这一比例大大超出了GPU等通用处理器,节约了大量片外数据访存能耗,使得TPU计算的能效比大大提高。从TPU二代开始采用HBM片上高带宽内存,虽然和最新一代GPU片上内存技术相同,但是TPU芯片的面积要远远小于GPU。硅片越小,成本越低,良品率也越高。 - -另外,由于TPU是一个单用途芯片,不需要考虑缓存、分支预测、多道处理等问题。这就意味着TPU的功能是单一且确定的。因此,我们可以使用TPU轻易的预测运行一个神经网络需要多长时间,这样我们就能让芯片以吞吐量接近峰值的状态运行,同时严格控制延迟。 - -## 2.4.2 NPU - -NPU即Neural-network Processing Unit,中文名为神经网络处理器,它采用“数据驱动并行计算”的架构,特别擅长处理视频、图像类的海量多媒体数据。 - -长期以来,应用需求一直牵动着嵌入式技术的发展方向。随着深度学习神经网络的兴起,人工智能、大数据时代的来临,CPU和GPU渐渐难以满足深度学习的需要,面对日渐旺盛的需求和广大的预期市场,设计一款专门用于神经网络深度学习的高效智能处理器显得十分必要,因此NPU应运而生。 - -从技术角度看,深度学习实际上是一类多层大规模人工神经网络。它模仿生物神经网络而构建,由若干人工神经元结点互联而成。神经元之间通过突触两两连接,突触记录了神经元间联系的权值强弱。由于深度学习的基本操作是神经元和突触的处理,神经网络中存储和处理是一体化的,都是通过突触权重来体现,而冯·诺伊曼结构中,存储和处理是分离的,分别由存储器和运算器来实现,二者之间存在巨大的差异。当用现有的基于冯·诺伊曼结构的经典计算机(如X86处理器和英伟达GPU)运行神经网络应用时,就不可避免地受到存储和处理分离式结构的制约,因而影响效率。因此,专门针对人工智能的专业芯片NPU更有研发的必要和需求。 - -在NPU的设计上,中国走在了世界前列。下面我们将以寒武纪的DianNao系列架构为例,来简要介绍NPU。 - -### DianNao - -![](./figures/diannao.jpg) - - - -上图:DianNao: a small-footprint high-throughput accelerator for ubiquitous machine-learning,figure 9 - -基于神经网络的人工智能算法,是模拟人类大脑内部神经元的结构。上图中的neuron代表的就是单个神经元,synapse代表神经元的突触。这个模型的工作模式,就要结合高中生物课的知识了。 - -一个神经元,有许多突触,给别的神经元传递信息。同样,这个神经元,也会接收来自许多其他神经元的信息。这个神经元所有接受到的信息累加,会有一个强烈程度,在生物上是以化学成分的形式存在,当这些信息达到一定的强烈程度,就会使整个神经元处于兴奋状态(激活),否则就是不兴奋(不激活)。如果兴奋了,就给其他神经元传递信息,如果不兴奋,就不传递。这就是单独一个神经元的工作模式。那么有成千上万个这样的神经元组合起来,就是一个神经网络模型。 - -那么DianNao是如何模拟神经元进行工作的呢,我们可以看看它的内部结构图: - -![](./figures/accelerator .jpg) - -上图:DianNao: a small-footprint high-throughput accelerator for ubiquitous machine-learning,figure 11 - -如图所示,上图中浅蓝色的部分就是用硬件逻辑模拟的神经网络架构,称为NFU(Neural Functional Units)。它可以被细分为三个部分,即途中的NFU-1,NFU-2,和NFU-3。 - -NFU-1是乘法单元,它采用16bit定点数乘法器,1位符号位,5位整数位,10位小数位。该部分总计有256个乘法器。这些乘法器的计算是同时的,也就是说,在一个周期内可以执行256次乘法。 - -NFU-2是加法树,总计16个,每一个加法树都是8-4-2-1这样的组成结构,即就是每一个加法树中都有15个加法器。 - -NFU-3是非线性激活函数,该部分由分段线性近似实现非线性函数,根据前面两个单元计算得到的刺激量,从而判断是否需要激活操作。 - -当需要实现向量相乘和卷积运算时,使用NFU-1完成对应位置元素相乘,NFU-2完成相乘结果相加,最后由NFU-3完成激活函数映射。完成池化运算时,使用NFU-2完成多个元素取最大值或取平均值运算。由此分析,尽管该运算模块非常简单,也覆盖了神经网络所需要的大部分运算。 - -### DaDianNao - -作为DianNao的多核升级版本,DaDianNao的运算单元NFU与DianNao基本相同,最大的区别是为了完成训练任务多加了几条数据通路,且配置更加灵活。NFU的尺寸为16x16,即16个输出神经元,每个输出神经元有16个输入(输入端需要一次提供256个数据)。同时,NFU可以可选的跳过一些步骤以达到灵活可配置的功能。DaDianNao的NFU结构如下所示: - -![](./figures/dadiannao.jpg) - -上图:DaDianNao: A Machine-Learning Supercomputer,figure 6 - -### ShiDianNao - -ShiDianNao是机器视觉专用加速器,集成了视频处理的部分,它也是DianNao系列中唯一一个考虑运算单元级数据重用的加速器,也是唯一使用二维运算阵列的加速器,其加速器的运算阵列结构如下所示: - - - -上图:ShiDianNao: Shifting vision processing closer to the sensor,figure 5 - -ShiDianNao的运算阵列为2D格点结构,对于每一个运算单元(节点)而言,运算所使用的参数统一来源于Kernel,而参与运算的数据则可能来自于:数据缓存NBin,下方的节点,右侧的节点。 - -下图为每个运算单元的结构: - -![](./figures/shidiannao2.jpg) - - - -上图:ShiDianNao: Shifting vision processing closer to the sensor,figure 6 - -该计算节点的功能包括转发数据和进行计算: - -转发数据:每个数据可来源于右侧节点,下方节点和NBin,根据控制信号选择其中一个存储到输入寄存器中,且根据控制信号可选的将其存储到FIFO-H和FIFO-V中。同时根据控制信号选择FIFO-H和FIFO-V中的信号从FIFO output端口输出 - -进行计算:根据控制信号进行计算,包括相加,累加,乘加和比较等,并将结果存储到输出寄存器中,并根据控制信号选择寄存器或计算结果输出到PE output端口。 - -对于计算功能,根据上文的结构图,可以发现,PE支持的运算有:kernel和输入数据相乘并与输出寄存器数据相加(乘加),输入数据与输出寄存器数据取最大或最小(应用于池化),kernel与输入数据相加(向量加法),输入数据与输出寄存器数据相加(累加)等。 - -### PuDianNao - -作为DianNao系列的收山之作,PuDianNao的运算单元是电脑系列中唯一一个异构的,除了有MLU(机器学习单元)外,还有一个ALU用于处理通用运算和MLU无法处理的运算,其运算单元(上)和MLU(下)结构如下图所示: - -![](./figures/MLU.jpg) - -上图:PuDianNao: A Polyvalent Machine Learning Accelerator,figure 11&12 - -该MLU共分为6层: - -计数层/比较层:这一层的处理为两个数按位与或比较大小,结果将被累加,这一层可以单独输出且可以被bypass - -加法层:这一层为两个输入对应相加,这一层可以单独输出且可以被bypass - -乘法层:这一层为两个输入或上一层(加法层)结果对应位置相乘,可以单独输出 - -加法树层:将乘法层的结果累加 - -累加层:将上一层(加法树层)的结果累加,可以单独输出 - -特殊处理层:由一个分段线性逼近实现的非线性函数和k排序器(输出上一层输出中最小的输出)组成 - -该运算单元是DianNao系列中功能最多的单元,配置非常灵活。例如实现向量相乘(对应位置相乘后累加)时,弃用计数层,加法层,将数据从乘法层,加法树层和累加层流过即可实现。 - -PuDianNao支持7种机器学习算法:神经网络,线性模型,支持向量机,决策树,朴素贝叶斯,K临近和K类聚,所需要支持的运算较多,因此PuDianNao的运算分析主要集中在存储方面,其运算核心的设计中说明PuDianNao支持的运算主要有:向量点乘,距离计算,计数,排序和非线性函数。其他未覆盖的计算使用ALU实现。 - - - -## 参考资料: - -[In-datacenter performance analysis of a tensor processing unit](https://ieeexplore.ieee.org/abstract/document/8192463) - -[Neural Network Processor](https://www.freepatentsonline.com/y2017/0103313.html) - -[DianNao: a small-footprint high-throughput accelerator for ubiquitous machine-learning](https://dl.acm.org/doi/abs/10.1145/2654822.2541967) - -[DaDianNao: A Machine-Learning Supercomputer](https://ieeexplore.ieee.org/document/7011421) - -[ShiDianNao: Shifting vision processing closer to the sensor](https://ieeexplore.ieee.org/document/7284058) - -[PuDianNao: A Polyvalent Machine Learning Accelerator](https://dl.acm.org/doi/abs/10.1145/2775054.2694358) diff --git "a/docs/_sources/\347\254\254\344\272\214\347\253\240/2.4 \345\205\266\344\273\226\345\212\240\351\200\237\350\256\276\345\244\207.md.txt" "b/docs/_sources/\347\254\254\344\272\214\347\253\240/2.4 \345\205\266\344\273\226\345\212\240\351\200\237\350\256\276\345\244\207.md.txt" deleted file mode 100644 index 02514c20b..000000000 --- "a/docs/_sources/\347\254\254\344\272\214\347\253\240/2.4 \345\205\266\344\273\226\345\212\240\351\200\237\350\256\276\345\244\207.md.txt" +++ /dev/null @@ -1,155 +0,0 @@ -# AI硬件加速设备 - -在进行模型部署和训练时,我们有时会受限于CPU和GPU的性能。这时,专用的AI芯片就显得尤为重要。 - -经过本节的学习,你将收获: - -- 什么是TPU -- 什么是NPU - -## 2.4.1 TPU - -TPU即Tensor Processing Unit,中文名为张量处理器。2006年,谷歌开始计划为神经网络构建一个专用的集成电路(ASIC)。随着计算需求和数据量的不断上涨,这个需求在2013年开始变得尤为紧迫。于是,谷歌在2015年6月的IO开发者大会上推出了为优化自身的TensorFlow框架而设计打造的一款计算神经网络专用芯片。它主要用于进行搜索,图像,语音等模型和技术的处理。 - -截至目前,谷歌已经发行了四代TPU芯片。 - -### 芯片架构设计 - -TPU的设计架构如下图 - - - -由上图可见,整个TPU中最重要的计算单元是右上角黄色的矩阵乘单元“Matrix Multiply Unit”,它包含256x256个MAC部件,每一个能够执行有符号或者无符号的8位乘加操作。它的输入为权重数据队列FIFO和统一缓冲Unified Buffer,即图中指向它的两个蓝色部分。在计算结束后,16位结果被收集并传递到位于矩阵单元下方的4MiB 32位蓝色累加器Accumulators中,之后由黄色的激活单元在累加后执行非线性函数,并最终将数据返回给统一缓冲。 - -Matrix Multiply Unit矩阵处理器作为TPU的核心部分,它可以在单个时钟周期内处理数十万次矩阵(Matrix)运算。MMU有着与传统CPU、GPU截然不同的架构,称为脉动阵列(systolic array)。之所以叫“脉动”,是因为在这种结构中,数据一波一波地流过芯片,与心脏跳动供血的方式类似。而如下图所示,CPU和GPU在每次运算中都需要从多个寄存器(register)中进行存取,而TPU的脉动阵列将多个运算逻辑单元(ALU)串联在一起,复用从一个寄存器中读取的结果。每个ALU单元结构简单,一般只包含乘法器、加法器以及寄存器三部分,适合大量堆砌。 - -![](.\figures\CPU&NPU.png) - -但是,在极大增加数据复用、降低内存带宽压力的同时,脉动阵列也有两个缺点,即数据重排和规模适配。第一,脉动矩阵主要实现向量/矩阵乘法。以CNN计算为例,CNN数据进入脉动阵列需要调整好形式,并且严格遵循时钟节拍和空间顺序输入。数据重排的额外操作增加了复杂性。第二,在数据流经整个阵列后,才能输出结果。当计算的向量中元素过少,脉动阵列规模过大时,不仅难以将阵列中的每个单元都利用起来,数据的导入和导出延时也随着尺寸扩大而增加,降低了计算效率。因此在确定脉动阵列的规模时,在考虑面积、能耗、峰值计算能力的同时,还要考虑典型应用下的效率。 - -### 技术特点 - -#### AI加速专用 - -TPU的架构属于Domain-specific Architecture,定位准确,架构简单,单线程控制,定制指令集,架构在深度学习运算方面效率极高,且容易扩展。相比之下,传统诸如CPU、GPU等通用处理器必须考虑灵活性和兼容性,有太重的包袱。但TPU这种特点也决定它只能被限制用于深度学习加速场景。 - -#### 脉动阵列设计 - -TPU采用了与传统CPU和GPU截然不同的脉动阵列(systolic array)结构来加速AI运算,脉动阵列能够在一个时钟周期内处理数十万次矩阵运算,在每次运算过程中,TPU能够将多个运算逻辑单元(ALU)串联在一起,并复用从一个寄存器中取得的结果。这种设计,不仅能够将数据复用实现最大化,减少芯片在运算过程中的内存访问次数,提高AI计算效率,同时也降低了内存带宽压力,进而降低内存访问的能耗。 - -MMU的脉动阵列包含256 × 256 = 65,536个ALU,也就是说TPU每个周期可以处理65,536次8位整数的乘法和加法。 - -TPU以700兆赫兹的功率运行,也就是说,它每秒可以运行65,536 × 700,000,000 = 46 × 1012次乘法和加法运算,或每秒92万亿(92 × 1012)次矩阵单元中的运算。 - -![](.\figures\MMU.jpg) - -#### 确定性功能和大规模片上内存 - -如图是TPU的平面设计简图,黄色为MMU运算单元,蓝色是统一缓存和累加器等数据单元,绿色是I/O,红色是逻辑控制单元。 - - - -传统GPU由于片上内存较少,因此在运行过程中需要不断地去访问片外动态随机存取存储器(DRAM),从而在一定程度上浪费了不必要的能耗。与CPU和GPU相比,TPU的控制单元更小,更容易设计,面积只占了整个冲模的2%,给片上存储器和运算单元留下了更大的空间。如上图所示的TPU一代架构中,总共设计了占总芯片面积35%的内存,其中包括24MB的局部内存、4MB的累加器内存,以及用于与主控处理器对接的内存。这一比例大大超出了GPU等通用处理器,节约了大量片外数据访存能耗,使得TPU计算的能效比大大提高。从TPU二代开始采用HBM片上高带宽内存,虽然和最新一代GPU片上内存技术相同,但是TPU芯片的面积要远远小于GPU。硅片越小,成本越低,良品率也越高。 - -另外,由于TPU是一个单用途芯片,不需要考虑缓存、分支预测、多道处理等问题。这就意味着TPU的功能是单一且确定的。因此,我们可以使用TPU轻易的预测运行一个神经网络需要多长时间,这样我们就能让芯片以吞吐量接近峰值的状态运行,同时严格控制延迟。 - -## 2.4.2 NPU - -NPU即Neural-network Processing Unit,中文名为神经网络处理器,它采用“数据驱动并行计算”的架构,特别擅长处理视频、图像类的海量多媒体数据。 - -长期以来,应用需求一直牵动着嵌入式技术的发展方向。随着深度学习神经网络的兴起,人工智能、大数据时代的来临,CPU和GPU渐渐难以满足深度学习的需要,面对日渐旺盛的需求和广大的预期市场,设计一款专门用于神经网络深度学习的高效智能处理器显得十分必要,因此NPU应运而生。 -从技术角度看,深度学习实际上是一类多层大规模人工神经网络。它模仿生物神经网络而构建,由若干人工神经元结点互联而成。神经元之间通过突触两两连接,突触记录了神经元间联系的权值强弱。由于深度学习的基本操作是神经元和突触的处理,神经网络中存储和处理是一体化的,都是通过突触权重来体现,而冯·诺伊曼结构中,存储和处理是分离的,分别由存储器和运算器来实现,二者之间存在巨大的差异。当用现有的基于冯·诺伊曼结构的经典计算机(如X86处理器和英伟达GPU)运行神经网络应用时,就不可避免地受到存储和处理分离式结构的制约,因而影响效率。因此,专门针对人工智能的专业芯片NPU更有研发的必要和需求。 - -在NPU的设计上,中国走在了世界前列。下面我们将以寒武纪的DianNao系列架构为例,来简要介绍NPU。 - -### DianNao - -![](.\figures\diannao.jpg) - - - -基于神经网络的人工智能算法,是模拟人类大脑内部神经元的结构。上图中的neuron代表的就是单个神经元,synapse代表神经元的突触。这个模型的工作模式,就要结合高中生物课的知识了。 - -一个神经元,有许多突触,给别的神经元传递信息。同样,这个神经元,也会接收来自许多其他神经元的信息。这个神经元所有接受到的信息累加,会有一个强烈程度,在生物上是以化学成分的形式存在,当这些信息达到一定的强烈程度,就会使整个神经元处于兴奋状态(激活),否则就是不兴奋(不激活)。如果兴奋了,就给其他神经元传递信息,如果不兴奋,就不传递。这就是单独一个神经元的工作模式。那么有成千上万个这样的神经元组合起来,就是一个神经网络模型。 - -那么DianNao是如何模拟神经元进行工作的呢,我们可以看看它的内部结构图: - -![](.\figures\accelerator.jpg) - -如图所示,上图中浅蓝色的部分就是用硬件逻辑模拟的神经网络架构,称为NFU(Neural Functional Units)。它可以被细分为三个部分,即途中的NFU-1,NFU-2,和NFU-3。 - -NFU-1是乘法单元,它采用16bit定点数乘法器,1位符号位,5位整数位,10位小数位。该部分总计有256个乘法器。这些乘法器的计算是同时的,也就是说,在一个周期内可以执行256次乘法。 - -NFU-2是加法树,总计16个,每一个加法树都是8-4-2-1这样的组成结构,即就是每一个加法树中都有15个加法器。 - -NFU-3是非线性激活函数,该部分由分段线性近似实现非线性函数,根据前面两个单元计算得到的刺激量,从而判断是否需要激活操作。 - -当需要实现向量相乘和卷积运算时,使用NFU-1完成对应位置元素相乘,NFU-2完成相乘结果相加,最后由NFU-3完成激活函数映射。完成池化运算时,使用NFU-2完成多个元素取最大值或取平均值运算。由此分析,尽管该运算模块非常简单,也覆盖了神经网络所需要的大部分运算。 - -### DaDianNao - -作为DianNao的多核升级版本,DaDianNao的运算单元NFU与DianNao基本相同,最大的区别是为了完成训练任务多加了几条数据通路,且配置更加灵活。NFU的尺寸为16x16,即16个输出神经元,每个输出神经元有16个输入(输入端需要一次提供256个数据)。同时,NFU可以可选的跳过一些步骤以达到灵活可配置的功能。DaDianNao的NFU结构如下所示: - -![](.\figures\dadiannao.jpg) - -### ShiDianNao - -ShiDianNao是机器视觉专用加速器,集成了视频处理的部分,它也是DianNao系列中唯一一个考虑运算单元级数据重用的加速器,也是唯一使用二维运算阵列的加速器,其加速器的运算阵列结构如下所示: - -![](.\figures\shidiannao.jpg) - -ShiDianNao的运算阵列为2D格点结构,对于每一个运算单元(节点)而言,运算所使用的参数统一来源于Kernel,而参与运算的数据则可能来自于:数据缓存NBin,下方的节点,右侧的节点。 - -下图为每个运算单元的结构: - -![](.\figures\shidiannao2.jpg) - - - -该计算节点的功能包括转发数据和进行计算: - -转发数据:每个数据可来源于右侧节点,下方节点和NBin,根据控制信号选择其中一个存储到输入寄存器中,且根据控制信号可选的将其存储到FIFO-H和FIFO-V中。同时根据控制信号选择FIFO-H和FIFO-V中的信号从FIFO output端口输出 - -进行计算:根据控制信号进行计算,包括相加,累加,乘加和比较等,并将结果存储到输出寄存器中,并根据控制信号选择寄存器或计算结果输出到PE output端口。 - -对于计算功能,根据上文的结构图,可以发现,PE支持的运算有:kernel和输入数据相乘并与输出寄存器数据相加(乘加),输入数据与输出寄存器数据取最大或最小(应用于池化),kernel与输入数据相加(向量加法),输入数据与输出寄存器数据相加(累加)等。 - -### DuDianNao - -作为DianNao系列的收山之作,PuDianNao的运算单元是电脑系列中唯一一个异构的,除了有MLU(机器学习单元)外,还有一个ALU用于处理通用运算和MLU无法处理的运算,其运算单元(左)和MLU(右)结构如下图所示: - -![](.\figures\0lohpk1drh.png) - -MLU共分为6层: - -计数层/比较层:这一层的处理为两个数按位与或比较大小,结果将被累加,这一层可以单独输出且可以被bypass - -加法层:这一层为两个输入对应相加,这一层可以单独输出且可以被bypass - -乘法层:这一层为两个输入或上一层(加法层)结果对应位置相乘,可以单独输出 - -加法树层:将乘法层的结果累加 - -累加层:将上一层(加法树层)的结果累加,可以单独输出 - -特殊处理层:由一个分段线性逼近实现的非线性函数和k排序器(输出上一层输出中最小的输出)组成 - -该运算单元是DianNao系列中功能最多的单元,配置非常灵活。例如实现向量相乘(对应位置相乘后累加)时,弃用计数层,加法层,将数据从乘法层,加法树层和累加层流过即可实现。 - -PuDianNao支持7种机器学习算法:神经网络,线性模型,支持向量机,决策树,朴素贝叶斯,K临近和K类聚,所需要支持的运算较多,因此PuDianNao的运算分析主要集中在存储方面,其运算核心的设计中说明PuDianNao支持的运算主要有:向量点乘,距离计算,计数,排序和非线性函数。其他未覆盖的计算使用ALU实现。 - - - -## 参考资料: - -[In-datacenter performance analysis of a tensor processing unit](https://ieeexplore.ieee.org/abstract/document/8192463) - -[Neural Network Processor](https://www.freepatentsonline.com/y2017/0103313.html) - -[DianNao: a small-footprint high-throughput accelerator for ubiquitous machine-learning](https://dl.acm.org/doi/abs/10.1145/2654822.2541967) - -[DaDianNao: A Machine-Learning Supercomputer](https://ieeexplore.ieee.org/document/7011421) - -[ShiDianNao: Shifting vision processing closer to the sensor](https://ieeexplore.ieee.org/document/7284058) - -[PuDianNao: A Polyvalent Machine Learning Accelerator](https://dl.acm.org/doi/abs/10.1145/2775054.2694358) diff --git "a/docs/_sources/\347\254\254\344\272\214\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\344\272\214\347\253\240/index.md.txt" deleted file mode 100644 index 0976d0804..000000000 --- "a/docs/_sources/\347\254\254\344\272\214\347\253\240/index.md.txt" +++ /dev/null @@ -1,8 +0,0 @@ -# 第二章:PyTorch基础知识 -```{toctree} -:maxdepth: 2 -2.1 张量 -2.2 自动求导 -2.3 并行计算简介 -2.4 AI硬件加速设备 -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\344\272\224\347\253\240/5.1 PyTorch\346\250\241\345\236\213\345\256\232\344\271\211\347\232\204\346\226\271\345\274\217.md.txt" "b/docs/_sources/\347\254\254\344\272\224\347\253\240/5.1 PyTorch\346\250\241\345\236\213\345\256\232\344\271\211\347\232\204\346\226\271\345\274\217.md.txt" deleted file mode 100644 index e96da231b..000000000 --- "a/docs/_sources/\347\254\254\344\272\224\347\253\240/5.1 PyTorch\346\250\241\345\236\213\345\256\232\344\271\211\347\232\204\346\226\271\345\274\217.md.txt" +++ /dev/null @@ -1,181 +0,0 @@ -# 5.1 PyTorch模型定义的方式 - -模型在深度学习中扮演着重要的角色,好的模型极大地促进了深度学习的发展进步,比如CNN的提出解决了图像、视频处理中的诸多问题,RNN/LSTM模型解决了序列数据处理的问题,GNN在图模型上发挥着重要的作用。当我们在向他人介绍一项深度学习工作的时候,对方可能首先要问的就是使用了哪些模型。因此,在PyTorch进阶操作的第一部分中,我们首先来学习PyTorch模型相关的内容。 - -在第一部分课程的第三章中,我们已经学习了模型中的“层“是如何定义的,以及基础的模型是如何构建的。这里我们来更为系统地学习PyTorch中模型定义的方式,本节的学习将为后续灵活构建自己的模型打下坚实的基础。 - -经过本节的学习,你将收获*: - -- 熟悉PyTorch中模型定义的三种方式 -- 读懂GitHub上千奇百怪的写法 -- 自己根据需要灵活选取模型定义方式 - -[^*]: 进阶部分内容剑指实战,通过”你将收获“部分帮助大家有针对性地学习 - - - -## 5.1.1 必要的知识回顾 - -- `Module` 类是 `torch.nn` 模块里提供的一个模型构造类 (`nn.Module`),是所有神经⽹网络模块的基类,我们可以继承它来定义我们想要的模型; -- PyTorch模型定义应包括两个主要部分:各个部分的初始化(`__init__`);数据流向定义(`forward`) - -基于`nn.Module`,我们可以通过`Sequential`,`ModuleList`和`ModuleDict`三种方式定义PyTorch模型。 - -下面我们就来逐个探索这三种模型定义方式。 - - - -## 5.1.2 Sequential - -对应模块为`nn.Sequential()`。 - -当模型的前向计算为简单串联各个层的计算时, `Sequential` 类可以通过更加简单的方式定义模型。它可以接收一个子模块的有序字典(OrderedDict) 或者一系列子模块作为参数来逐一添加 `Module` 的实例,⽽模型的前向计算就是将这些实例按添加的顺序逐⼀计算。我们结合`Sequential`和定义方式加以理解: - -```python -from collections import OrderedDict -class MySequential(nn.Module): - def __init__(self, *args): - super(MySequential, self).__init__() - if len(args) == 1 and isinstance(args[0], OrderedDict): # 如果传入的是一个OrderedDict - for key, module in args[0].items(): - self.add_module(key, module) - # add_module方法会将module添加进self._modules(一个OrderedDict) - else: # 传入的是一些Module - for idx, module in enumerate(args): - self.add_module(str(idx), module) - def forward(self, input): - # self._modules返回一个 OrderedDict,保证会按照成员添加时的顺序遍历成 - for module in self._modules.values(): - input = module(input) - return input -``` - -下面来看下如何使用`Sequential`来定义模型。只需要将模型的层按序排列起来即可,根据层名的不同,排列的时候有两种方式: - -- 直接排列 - -```python -import torch.nn as nn -net = nn.Sequential( - nn.Linear(784, 256), - nn.ReLU(), - nn.Linear(256, 10), - ) -print(net) -``` - -``` -Sequential( - (0): Linear(in_features=784, out_features=256, bias=True) - (1): ReLU() - (2): Linear(in_features=256, out_features=10, bias=True) -) -``` - -- 使用OrderedDict: - -```python -import collections -import torch.nn as nn -net2 = nn.Sequential(collections.OrderedDict([ - ('fc1', nn.Linear(784, 256)), - ('relu1', nn.ReLU()), - ('fc2', nn.Linear(256, 10)) - ])) -print(net2) -``` - -``` -Sequential( - (fc1): Linear(in_features=784, out_features=256, bias=True) - (relu1): ReLU() - (fc2): Linear(in_features=256, out_features=10, bias=True) -) -``` - -可以看到,使用`Sequential`定义模型的好处在于简单、易读,同时使用`Sequential`定义的模型不需要再写`forward`,因为顺序已经定义好了。但使用`Sequential`也会使得模型定义丧失灵活性,比如需要在模型中间加入一个外部输入时就不适合用`Sequential`的方式实现。使用时需根据实际需求加以选择。 - - - -## 5.1.3 ModuleList - -对应模块为`nn.ModuleList()`。 - -`ModuleList` 接收一个子模块(或层,需属于`nn.Module`类)的列表作为输入,然后也可以类似`List`那样进行append和extend操作。同时,子模块或层的权重也会自动添加到网络中来。 - -```python -net = nn.ModuleList([nn.Linear(784, 256), nn.ReLU()]) -net.append(nn.Linear(256, 10)) # # 类似List的append操作 -print(net[-1]) # 类似List的索引访问 -print(net) -``` - -``` -Linear(in_features=256, out_features=10, bias=True) -ModuleList( - (0): Linear(in_features=784, out_features=256, bias=True) - (1): ReLU() - (2): Linear(in_features=256, out_features=10, bias=True) -) -``` - -要特别注意的是,`nn.ModuleList` 并没有定义一个网络,它只是将不同的模块储存在一起。`ModuleList`中元素的先后顺序并不代表其在网络中的真实位置顺序,需要经过forward函数指定各个层的先后顺序后才算完成了模型的定义。具体实现时用for循环即可完成: - -```python -class model(nn.Module): - def __init__(self, ...): - super().__init__() - self.modulelist = ... - ... - - def forward(self, x): - for layer in self.modulelist: - x = layer(x) - return x -``` - - - -## 5.1.4 ModuleDict - -对应模块为`nn.ModuleDict()`。 - -`ModuleDict`和`ModuleList`的作用类似,只是`ModuleDict`能够更方便地为神经网络的层添加名称。 - -```python -net = nn.ModuleDict({ - 'linear': nn.Linear(784, 256), - 'act': nn.ReLU(), -}) -net['output'] = nn.Linear(256, 10) # 添加 -print(net['linear']) # 访问 -print(net.output) -print(net) -``` - -``` -Linear(in_features=784, out_features=256, bias=True) -Linear(in_features=256, out_features=10, bias=True) -ModuleDict( - (act): ReLU() - (linear): Linear(in_features=784, out_features=256, bias=True) - (output): Linear(in_features=256, out_features=10, bias=True) -) -``` - - - -## 5.1.5 三种方法的比较与适用场景 - -`Sequential`适用于快速验证结果,因为已经明确了要用哪些层,直接写一下就好了,不需要同时写`__init__`和`forward`; - -ModuleList和ModuleDict在某个完全相同的层需要重复出现多次时,非常方便实现,可以”一行顶多行“; - -当我们需要之前层的信息的时候,比如 ResNets 中的残差计算,当前层的结果需要和之前层中的结果进行融合,一般使用 ModuleList/ModuleDict 比较方便。 - - - -## 本节参考 - -【1】https://zhuanlan.zhihu.com/p/64990232 - diff --git "a/docs/_sources/\347\254\254\344\272\224\347\253\240/5.2 \345\210\251\347\224\250\346\250\241\345\236\213\345\235\227\345\277\253\351\200\237\346\220\255\345\273\272\345\244\215\346\235\202\347\275\221\347\273\234.md.txt" "b/docs/_sources/\347\254\254\344\272\224\347\253\240/5.2 \345\210\251\347\224\250\346\250\241\345\236\213\345\235\227\345\277\253\351\200\237\346\220\255\345\273\272\345\244\215\346\235\202\347\275\221\347\273\234.md.txt" deleted file mode 100644 index 91f7daffc..000000000 --- "a/docs/_sources/\347\254\254\344\272\224\347\253\240/5.2 \345\210\251\347\224\250\346\250\241\345\236\213\345\235\227\345\277\253\351\200\237\346\220\255\345\273\272\345\244\215\346\235\202\347\275\221\347\273\234.md.txt" +++ /dev/null @@ -1,179 +0,0 @@ -# 5.2 利用模型块快速搭建复杂网络 - -上一节中我们介绍了怎样定义PyTorch的模型,其中给出的示例都是用`torch.nn`中的层来完成的。这种定义方式易于理解,在实际场景下不一定利于使用。当模型的深度非常大时候,使用`Sequential`定义模型结构需要向其中添加几百行代码,使用起来不甚方便。 - -对于大部分模型结构(比如ResNet、DenseNet等),我们仔细观察就会发现,虽然模型有很多层, 但是其中有很多重复出现的结构。考虑到每一层有其输入和输出,若干层串联成的”模块“也有其输入和输出,如果我们能将这些重复出现的层定义为一个”模块“,每次只需要向网络中添加对应的模块来构建模型,这样将会极大便利模型构建的过程。 - -本节我们将以U-Net为例,介绍如何构建模型块,以及如何利用模型块快速搭建复杂模型。 - -经过本节的学习,你将收获: - -- 利用上一节学到的知识,将简单层构建成具有特定功能的模型块 -- 利用模型块构建复杂网络 - - - -## 5.2.1 U-Net简介 - -U-Net是分割 (Segmentation) 模型的杰作,在以医学影像为代表的诸多领域有着广泛的应用。U-Net模型结构如下图所示,通过残差连接结构解决了模型学习中的退化问题,使得神经网络的深度能够不断扩展。 - -![unet](./figures/5.2.1unet.png) - - - -## 5.2.2 U-Net模型块分析 - -结合上图,不难发现U-Net模型具有非常好的对称性。模型从上到下分为若干层,每层由左侧和右侧两个模型块组成,每侧的模型块与其上下模型块之间有连接;同时位于同一层左右两侧的模型块之间也有连接,称为“Skip-connection”。此外还有输入和输出处理等其他组成部分。由于模型的形状非常像英文字母的“U”,因此被命名为“U-Net”。 - -组成U-Net的模型块主要有如下几个部分: - -- 每个子块内部的两次卷积(Double Convolution) - -- 左侧模型块之间的下采样连接,即最大池化(Max pooling) - -- 右侧模型块之间的上采样连接(Up sampling) - -- 输出层的处理 - -除模型块外,还有模型块之间的横向连接,输入和U-Net底部的连接等计算,这些单独的操作可以通过forward函数来实现。 - -下面我们用PyTorch先实现上述的模型块,然后再利用定义好的模型块构建U-Net模型。 - - - -## 5.2.3 U-Net模型块实现 - -在使用PyTorch实现U-Net模型时,我们不必把每一层按序排列显式写出,这样太麻烦且不宜读,一种比较好的方法是先定义好模型块,再定义模型块之间的连接顺序和计算方式。就好比装配零件一样,我们先装配好一些基础的部件,之后再用这些可以复用的部件得到整个装配体。 - -这里的基础部件对应上一节分析的四个模型块,根据功能我们将其命名为:`DoubleConv`, `Down`, `Up`, `OutConv`。下面给出U-Net中模型块的PyTorch 实现: - -```python -import torch -import torch.nn as nn -import torch.nn.functional as F -``` - -```python -class DoubleConv(nn.Module): - """(convolution => [BN] => ReLU) * 2""" - - def __init__(self, in_channels, out_channels, mid_channels=None): - super().__init__() - if not mid_channels: - mid_channels = out_channels - self.double_conv = nn.Sequential( - nn.Conv2d(in_channels, mid_channels, kernel_size=3, padding=1, bias=False), - nn.BatchNorm2d(mid_channels), - nn.ReLU(inplace=True), - nn.Conv2d(mid_channels, out_channels, kernel_size=3, padding=1, bias=False), - nn.BatchNorm2d(out_channels), - nn.ReLU(inplace=True) - ) - - def forward(self, x): - return self.double_conv(x) - -``` - -```python -class Down(nn.Module): - """Downscaling with maxpool then double conv""" - - def __init__(self, in_channels, out_channels): - super().__init__() - self.maxpool_conv = nn.Sequential( - nn.MaxPool2d(2), - DoubleConv(in_channels, out_channels) - ) - - def forward(self, x): - return self.maxpool_conv(x) - -``` - -```python -class Up(nn.Module): - """Upscaling then double conv""" - - def __init__(self, in_channels, out_channels, bilinear=False): - super().__init__() - - # if bilinear, use the normal convolutions to reduce the number of channels - if bilinear: - self.up = nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True) - self.conv = DoubleConv(in_channels, out_channels, in_channels // 2) - else: - self.up = nn.ConvTranspose2d(in_channels, in_channels // 2, kernel_size=2, stride=2) - self.conv = DoubleConv(in_channels, out_channels) - - def forward(self, x1, x2): - x1 = self.up(x1) - # input is CHW - diffY = x2.size()[2] - x1.size()[2] - diffX = x2.size()[3] - x1.size()[3] - - x1 = F.pad(x1, [diffX // 2, diffX - diffX // 2, - diffY // 2, diffY - diffY // 2]) - # if you have padding issues, see - # https://github.com/HaiyongJiang/U-Net-Pytorch-Unstructured-Buggy/commit/0e854509c2cea854e247a9c615f175f76fbb2e3a - # https://github.com/xiaopeng-liao/Pytorch-UNet/commit/8ebac70e633bac59fc22bb5195e513d5832fb3bd - x = torch.cat([x2, x1], dim=1) - return self.conv(x) - -``` - -```python -class OutConv(nn.Module): - def __init__(self, in_channels, out_channels): - super(OutConv, self).__init__() - self.conv = nn.Conv2d(in_channels, out_channels, kernel_size=1) - - def forward(self, x): - return self.conv(x) -``` - - - -## 5.2.4 利用模型块组装U-Net - -使用上面我们定义好的模型块,我们就可以非常方便地组装U-Net模型。可以看到,通过模型块的方式实现了代码复用,整个模型结构定义所需的代码总行数明显减少,代码可读性也得到了提升。 - -```python -class UNet(nn.Module): - def __init__(self, n_channels, n_classes, bilinear=False): - super(UNet, self).__init__() - self.n_channels = n_channels - self.n_classes = n_classes - self.bilinear = bilinear - - self.inc = DoubleConv(n_channels, 64) - self.down1 = Down(64, 128) - self.down2 = Down(128, 256) - self.down3 = Down(256, 512) - factor = 2 if bilinear else 1 - self.down4 = Down(512, 1024 // factor) - self.up1 = Up(1024, 512 // factor, bilinear) - self.up2 = Up(512, 256 // factor, bilinear) - self.up3 = Up(256, 128 // factor, bilinear) - self.up4 = Up(128, 64, bilinear) - self.outc = OutConv(64, n_classes) - - def forward(self, x): - x1 = self.inc(x) - x2 = self.down1(x1) - x3 = self.down2(x2) - x4 = self.down3(x3) - x5 = self.down4(x4) - x = self.up1(x5, x4) - x = self.up2(x, x3) - x = self.up3(x, x2) - x = self.up4(x, x1) - logits = self.outc(x) - return logits -``` - - - -## 参考资料 - -1. https://github.com/milesial/Pytorch-UNet diff --git "a/docs/_sources/\347\254\254\344\272\224\347\253\240/5.3 PyTorch\344\277\256\346\224\271\346\250\241\345\236\213.md.txt" "b/docs/_sources/\347\254\254\344\272\224\347\253\240/5.3 PyTorch\344\277\256\346\224\271\346\250\241\345\236\213.md.txt" deleted file mode 100644 index 4067614f4..000000000 --- "a/docs/_sources/\347\254\254\344\272\224\347\253\240/5.3 PyTorch\344\277\256\346\224\271\346\250\241\345\236\213.md.txt" +++ /dev/null @@ -1,154 +0,0 @@ -# 5.3 PyTorch修改模型 - -除了自己构建PyTorch模型外,还有另一种应用场景:我们已经有一个现成的模型,但该模型中的部分结构不符合我们的要求,为了使用模型,我们需要对模型结构进行必要的修改。随着深度学习的发展和PyTorch越来越广泛的使用,有越来越多的开源模型可以供我们使用,很多时候我们也不必从头开始构建模型。因此,掌握如何修改PyTorch模型就显得尤为重要。 - -本节我们就来探索这一问题。经过本节的学习,你将收获: - -- 如何在已有模型的基础上: - - 修改模型若干层 - - 添加额外输入 - - 添加额外输出 - - - -## 5.3.1 修改模型层 - -我们这里以PyTorch官方视觉库torchvision预定义好的模型ResNet50为例,探索如何修改模型的某一层或者某几层。我们先看看模型的定义是怎样的: - -```python -# 导入必要的package -import torch -import torch.nn as nn -from collections import OrderedDict -import torchvision.models as models -net = models.resnet50() -print(net) -``` - -``` -ResNet( - (conv1): Conv2d(3, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3), bias=False) - (bn1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (relu): ReLU(inplace=True) - (maxpool): MaxPool2d(kernel_size=3, stride=2, padding=1, dilation=1, ceil_mode=False) - (layer1): Sequential( - (0): Bottleneck( - (conv1): Conv2d(64, 64, kernel_size=(1, 1), stride=(1, 1), bias=False) - (bn1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (conv2): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (bn2): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (conv3): Conv2d(64, 256, kernel_size=(1, 1), stride=(1, 1), bias=False) - (bn3): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (relu): ReLU(inplace=True) - (downsample): Sequential( - (0): Conv2d(64, 256, kernel_size=(1, 1), stride=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - ) - ) -.............. - (avgpool): AdaptiveAvgPool2d(output_size=(1, 1)) - (fc): Linear(in_features=2048, out_features=1000, bias=True) -) - -``` - -这里模型结构是为了适配ImageNet预训练的权重,因此最后全连接层(fc)的输出节点数是1000。 - -假设我们要用这个resnet模型去做一个10分类的问题,就应该修改模型的fc层,将其输出节点数替换为10。另外,我们觉得一层全连接层可能太少了,想再加一层。可以做如下修改: - -```python -classifier = nn.Sequential(OrderedDict([('fc1', nn.Linear(2048, 128)), - ('relu1', nn.ReLU()), - ('dropout1',nn.Dropout(0.5)), - ('fc2', nn.Linear(128, 10)), - ('output', nn.Softmax(dim=1)) - ])) - -net.fc = classifier -``` - -这里的操作相当于将模型(net)最后名称为“fc”的层替换成了名称为“classifier”的结构,该结构是我们自己定义的。这里使用了第一节介绍的Sequential+OrderedDict的模型定义方式。至此,我们就完成了模型的修改,现在的模型就可以去做10分类任务了。 - - - -## 5.3.2 添加外部输入 - -有时候在模型训练中,除了已有模型的输入之外,还需要输入额外的信息。比如在CNN网络中,我们除了输入图像,还需要同时输入图像对应的其他信息,这时候就需要在已有的CNN网络中添加额外的输入变量。基本思路是:将原模型添加输入位置前的部分作为一个整体,同时在forward中定义好原模型不变的部分、添加的输入和后续层之间的连接关系,从而完成模型的修改。 - -我们以torchvision的resnet50模型为基础,任务还是10分类任务。不同点在于,我们希望利用已有的模型结构,在倒数第二层增加一个额外的输入变量add_variable来辅助预测。具体实现如下: - -```python -class Model(nn.Module): - def __init__(self, net): - super(Model, self).__init__() - self.net = net - self.relu = nn.ReLU() - self.dropout = nn.Dropout(0.5) - self.fc_add = nn.Linear(1001, 10, bias=True) - self.output = nn.Softmax(dim=1) - - def forward(self, x, add_variable): - x = self.net(x) - x = torch.cat((self.dropout(self.relu(x)), add_variable.unsqueeze(1)),1) - x = self.fc_add(x) - x = self.output(x) - return x -``` - -这里的实现要点是通过torch.cat实现了tensor的拼接。torchvision中的resnet50输出是一个1000维的tensor,我们通过修改forward函数(配套定义一些层),先将1000维的tensor通过激活函数层和dropout层,再和外部输入变量"add_variable"拼接,最后通过全连接层映射到指定的输出维度10。 - -另外这里对外部输入变量"add_variable"进行unsqueeze操作是为了和net输出的tensor保持维度一致,常用于add_variable是单一数值 (scalar) 的情况,此时add_variable的维度是 (batch_size, ),需要在第二维补充维数1,从而可以和tensor进行torch.cat操作。对于unsqueeze操作可以复习下2.1节的内容和配套代码。 - -之后对我们修改好的模型结构进行实例化,就可以使用了: - -```python -net = models.resnet50() -model = Model(net).cuda() -``` - -另外别忘了,训练中在输入数据的时候要给两个inputs: - -```python -outputs = model(inputs, add_var) -``` - - - -## 5.3.3 添加额外输出 - -有时候在模型训练中,除了模型最后的输出外,我们需要输出模型某一中间层的结果,以施加额外的监督,获得更好的中间层结果。基本的思路是修改模型定义中forward函数的return变量。 - -我们依然以resnet50做10分类任务为例,在已经定义好的模型结构上,同时输出1000维的倒数第二层和10维的最后一层结果。具体实现如下: - -```python -class Model(nn.Module): - def __init__(self, net): - super(Model, self).__init__() - self.net = net - self.relu = nn.ReLU() - self.dropout = nn.Dropout(0.5) - self.fc1 = nn.Linear(1000, 10, bias=True) - self.output = nn.Softmax(dim=1) - - def forward(self, x, add_variable): - x1000 = self.net(x) - x10 = self.dropout(self.relu(x1000)) - x10 = self.fc1(x10) - x10 = self.output(x10) - return x10, x1000 -``` - -之后对我们修改好的模型结构进行实例化,就可以使用了: - -```python -import torchvision.models as models -net = models.resnet50() -model = Model(net).cuda() -``` - -另外别忘了,训练中在输入数据后会有两个outputs: - -```python -out10, out1000 = model(inputs, add_var) -``` - diff --git "a/docs/_sources/\347\254\254\344\272\224\347\253\240/5.4 PyTorh\346\250\241\345\236\213\344\277\235\345\255\230\344\270\216\350\257\273\345\217\226.md.txt" "b/docs/_sources/\347\254\254\344\272\224\347\253\240/5.4 PyTorh\346\250\241\345\236\213\344\277\235\345\255\230\344\270\216\350\257\273\345\217\226.md.txt" deleted file mode 100644 index 24f045e1c..000000000 --- "a/docs/_sources/\347\254\254\344\272\224\347\253\240/5.4 PyTorh\346\250\241\345\236\213\344\277\235\345\255\230\344\270\216\350\257\273\345\217\226.md.txt" +++ /dev/null @@ -1,292 +0,0 @@ -# 5.4 PyTorch模型保存与读取 - -在前面几节的内容中,我们介绍了如何构建和修改PyTorch模型。本节我们来讨论PyTorch如何保存和读取训练好的模型和参数。 - -另外,在很多场景下我们都会使用多GPU训练。这种情况下,模型会分布于各个GPU上(参加2.3节分布数据式训练,这里暂不考虑分布模型式训练),模型的保存和读取与单GPU训练情景下是否有所不同? - -经过本节的学习,你将收获: - -- PyTorch的模型的存储格式 -- PyTorch如何存储模型 -- 单卡与多卡训练下模型的保存与加载方法 -- 优化器模型参数的保存 - - -## 5.4.1 模型存储格式 - -PyTorch存储模型主要采用pkl,pt,pth三种格式。就使用层面来说没有区别,这里不做具体的讨论。本节最后的参考内容中列出了查阅到的一些资料,感兴趣的读者可以进一步研究,欢迎留言讨论。 - - -## 5.4.2 模型存储内容 - -一个PyTorch模型主要包含两个部分:模型结构和权重。其中模型是继承nn.Module的类,权重的数据结构是一个字典(key是层名,value是权重向量)。存储也由此分为两种形式:存储整个模型(包括结构和权重),和只存储模型权重。 - -```python -from torchvision import models -model = models.resnet152(pretrained=True) -save_dir = './resnet152.pth' - -# 保存整个模型 -torch.save(model, save_dir) -# 保存模型权重 -torch.save(model.state_dict, save_dir) -``` - -对于PyTorch而言,pt, pth和pkl**三种数据格式均支持模型权重和整个模型的存储**,因此使用上没有差别。 - - - -## 5.4.3 单卡和多卡模型存储的区别 - -PyTorch中将模型和数据放到GPU上有两种方式——`.cuda()`和`.to(device)`,本节后续内容针对前一种方式进行讨论。如果要使用多卡训练的话,需要对模型使用`torch.nn.DataParallel`。示例如下: - -```python -import os -os.environ['CUDA_VISIBLE_DEVICES'] = '0' # 如果是多卡改成类似0,1,2 -model = model.cuda() # 单卡 -model = torch.nn.DataParallel(model).cuda() # 多卡 -``` - -之后我们把`model`对应的`layer`名称打印出来看一下,可以观察到差别在于多卡并行的模型每层的名称前多了一个“module”。 - -- 单卡模型的层名: - -![img](https://pic3.zhimg.com/v2-3490f6ab8bc806274dd017e1a66e2486_b.png) - -- 多卡模型的层名: - -![img](https://pic3.zhimg.com/v2-4b611c24c2e702749cebbe65eaff7cde_b.png) - -这种模型表示的不同可能会导致模型保存和加载过程中需要处理一些矛盾点,下面对各种可能的情况做分类讨论。 - - -## 5.4.4 单卡/多卡情况分类讨论 - -由于训练和测试所使用的硬件条件不同,在模型的保存和加载过程中可能因为单GPU和多GPU环境的不同带来模型不匹配等问题。这里对PyTorch框架下单卡/多卡下模型的保存和加载问题进行排列组合(=4),样例模型是torchvision中预训练模型resnet152,不尽之处欢迎大家补充。 - -- **单卡保存+单卡加载** - -在使用os.envision命令指定使用的GPU后,即可进行模型保存和读取操作。注意这里即便保存和读取时使用的GPU不同也无妨。 - -```python -import os -import torch -from torchvision import models - -os.environ['CUDA_VISIBLE_DEVICES'] = '0' #这里替换成希望使用的GPU编号 -model = models.resnet152(pretrained=True) -model.cuda() - -save_dir = 'resnet152.pt' #保存路径 - -# 保存+读取整个模型 -torch.save(model, save_dir) -loaded_model = torch.load(save_dir) -loaded_model.cuda() - -# 保存+读取模型权重 -torch.save(model.state_dict(), save_dir) -loaded_model = models.resnet152() #注意这里需要对模型结构有定义 -loaded_model.load_state_dict(torch.load(save_dir)) -loaded_model.cuda() -``` - -- **单卡保存+多卡加载** - -这种情况的处理比较简单,读取单卡保存的模型后,使用`nn.DataParallel`函数进行分布式训练设置即可(相当于3.1代码中.cuda()替换一下): - -```python -import os -import torch -from torchvision import models - -os.environ['CUDA_VISIBLE_DEVICES'] = '0' #这里替换成希望使用的GPU编号 -model = models.resnet152(pretrained=True) -model.cuda() - -# 保存+读取整个模型 -torch.save(model, save_dir) - -os.environ['CUDA_VISIBLE_DEVICES'] = '1,2' #这里替换成希望使用的GPU编号 -loaded_model = torch.load(save_dir) -loaded_model = nn.DataParallel(loaded_model).cuda() - -# 保存+读取模型权重 -torch.save(model.state_dict(), save_dir) - -os.environ['CUDA_VISIBLE_DEVICES'] = '1,2' #这里替换成希望使用的GPU编号 -loaded_model = models.resnet152() #注意这里需要对模型结构有定义 -loaded_model.load_state_dict(torch.load(save_dir)) -loaded_model = nn.DataParallel(loaded_model).cuda() -``` - -- **多卡保存+单卡加载** - -这种情况下的核心问题是:如何去掉权重字典键名中的"module",以保证模型的统一性。 - -对于加载整个模型,直接提取模型的module属性即可: - -```python -import os -import torch -from torchvision import models - -os.environ['CUDA_VISIBLE_DEVICES'] = '1,2' #这里替换成希望使用的GPU编号 - -model = models.resnet152(pretrained=True) -model = nn.DataParallel(model).cuda() - -# 保存+读取整个模型 -torch.save(model, save_dir) - -os.environ['CUDA_VISIBLE_DEVICES'] = '0' #这里替换成希望使用的GPU编号 -loaded_model = torch.load(save_dir).module -``` - -对于加载模型权重,有以下几种思路: -**保存模型时保存模型的module属性对应的权重** -```python -import os -os.environ['CUDA_VISIBLE_DEVICES'] = '0,1,2' #这里替换成希望使用的GPU编号 -import torch -from torchvision import models - -save_dir = 'resnet152.pth' #保存路径 -model = models.resnet152(pretrained=True) -model = nn.DataParallel(model).cuda() - -# 保存权重 -torch.save(model.module.state_dict(), save_dir) -``` -这样保存下来的模型参数就和单卡保存的模型参数一样了,可以直接加载。也是比较推荐的一种方法。 -**去除字典里的module麻烦,往model里添加module简单** - -```python -import os -os.environ['CUDA_VISIBLE_DEVICES'] = '0,1,2' #这里替换成希望使用的GPU编号 -import torch -from torchvision import models - -model = models.resnet152(pretrained=True) -model = nn.DataParallel(model).cuda() - -# 保存+读取模型权重 -torch.save(model.state_dict(), save_dir) - -os.environ['CUDA_VISIBLE_DEVICES'] = '0' #这里替换成希望使用的GPU编号 -loaded_model = models.resnet152() #注意这里需要对模型结构有定义 -loaded_model.load_state_dict(torch.load(save_dir)) -loaded_model = nn.DataParallel(loaded_model).cuda() -loaded_model.state_dict = loaded_dict -``` - -这样即便是单卡,也可以开始训练了(相当于分布到单卡上) - -**遍历字典去除module** - -```python -from collections import OrderedDict -os.environ['CUDA_VISIBLE_DEVICES'] = '0' #这里替换成希望使用的GPU编号 - -loaded_dict = torch.load(save_dir) - -new_state_dict = OrderedDict() -for k, v in loaded_dict.items(): - name = k[7:] # module字段在最前面,从第7个字符开始就可以去掉module - new_state_dict[name] = v #新字典的key值对应的value一一对应 - -loaded_model = models.resnet152() #注意这里需要对模型结构有定义 -loaded_model.state_dict = new_state_dict -loaded_model = loaded_model.cuda() -``` - -**使用replace操作去除module** - -```python -loaded_model = models.resnet152() -loaded_dict = torch.load(save_dir) -loaded_model.load_state_dict({k.replace('module.', ''): v for k, v in loaded_dict.items()}) -``` - - - -- **多卡保存+多卡加载** - -由于是模型保存和加载都使用的是多卡,因此不存在模型层名前缀不同的问题。但多卡状态下存在一个device(使用的GPU)匹配的问题,即**保存整个模型**时会同时保存所使用的GPU id等信息,读取时若这些信息和当前使用的GPU信息不符则可能会报错或者程序不按预定状态运行。具体表现为以下两点: - -**读取整个模型再使用nn.DataParallel进行分布式训练设置** - -这种情况很可能会造成保存的整个模型中GPU id和读取环境下设置的GPU id不符,训练时数据所在device和模型所在device不一致而报错。 - -**读取整个模型而不使用nn.DataParallel进行分布式训练设置** - -这种情况可能不会报错,测试中发现程序会自动使用设备的前n个GPU进行训练(n是保存的模型使用的GPU个数)。此时如果指定的GPU个数少于n,则会报错。在这种情况下,只有保存模型时环境的device id和读取模型时环境的device id一致,程序才会按照预期在指定的GPU上进行分布式训练。 - -相比之下,读取模型权重,之后再使用nn.DataParallel进行分布式训练设置则没有问题。因此**多卡模式下建议使用权重的方式存储和读取模型**: - -```python -import os -import torch -from torchvision import models - -os.environ['CUDA_VISIBLE_DEVICES'] = '0,1,2' #这里替换成希望使用的GPU编号 - -model = models.resnet152(pretrained=True) -model = nn.DataParallel(model).cuda() - -# 保存+读取模型权重,强烈建议!! -torch.save(model.state_dict(), save_dir) -loaded_model = models.resnet152() #注意这里需要对模型结构有定义 -loaded_model.load_state_dict(torch.load(save_dir))) -loaded_model = nn.DataParallel(loaded_model).cuda() -``` - -如果只有保存的整个模型,也可以采用提取权重的方式构建新的模型: - -```python -# 读取整个模型 -loaded_whole_model = torch.load(save_dir) -loaded_model = models.resnet152() #注意这里需要对模型结构有定义 -loaded_model.state_dict = loaded_whole_model.state_dict -loaded_model = nn.DataParallel(loaded_model).cuda() -``` - -另外,上面所有对于loaded_model修改权重字典的形式都是通过赋值来实现的,在PyTorch中还可以通过"load_state_dict"函数来实现。因此在上面的所有示例中,我们使用了两种实现方式。 - -```python -loaded_model.load_state_dict(loaded_dict) -``` - -## 5.4.5 其他参数的保存和读取 -在深度学习项目里,有时候我们不仅仅需要保存模型的权重,还需要保存一些其他的参数,比如训练的epoch数、训练的loss,优化器的参数,动态调整学习策略的参数等等。这些参数可以通过字典的形式保存在一个文件里,然后在读取模型时一起读取。这里我们以下方代码为例: -```python -torch.save({ - 'model': model.state_dict(), - 'optimizer': optimizer.state_dict(), - 'lr_scheduler': lr_scheduler.state_dict(), - 'epoch': epoch, - 'args': args, - }, checkpoint_path) -``` -这些参数的读取方式也是类似的: -```python -checkpoint = torch.load(checkpoint_path) -model.load_state_dict(checkpoint['model']) -optimizer.load_state_dict(checkpoint['optimizer']) -lr_scheduler.load_state_dict(checkpoint['lr_scheduler']) -epoch = checkpoint['epoch'] -args = checkpoint['args'] -``` - -## 附:测试环境 - -OS: Ubuntu 20.04 LTS GPU: GeForce RTX 2080 Ti (x3) - - - -## 参考资料 - -本章内容同时发布于[知乎](https://zhuanlan.zhihu.com/p/371090724)和[CSDN](https://blog.csdn.net/goodljq/article/details/117258032) - -1. [pytorch 中pkl和pth的区别?](https://www.zhihu.com/question/274533811) -2. [What is the difference between .pt, .pth and .pwf extentions in PyTorch?](https://stackoverflow.com/questions/59095824/what-is-the-difference-between-pt-pth-and-pwf-extentions-in-pytorch) diff --git "a/docs/_sources/\347\254\254\344\272\224\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\344\272\224\347\253\240/index.md.txt" deleted file mode 100644 index 876329df3..000000000 --- "a/docs/_sources/\347\254\254\344\272\224\347\253\240/index.md.txt" +++ /dev/null @@ -1,8 +0,0 @@ -# 第五章:PyTorch模型定义 -```{toctree} -:maxdepth: 2 -5.1 PyTorch模型定义的方式 -5.2 利用模型块快速搭建复杂网络 -5.3 PyTorch修改模型 -5.4 PyTorh模型保存与读取 -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.1 \346\234\254\347\253\240\347\256\200\344\273\213.md.txt" "b/docs/_sources/\347\254\254\345\205\253\347\253\240/8.1 \346\234\254\347\253\240\347\256\200\344\273\213.md.txt" deleted file mode 100644 index 3fe148462..000000000 --- "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.1 \346\234\254\347\253\240\347\256\200\344\273\213.md.txt" +++ /dev/null @@ -1,16 +0,0 @@ -# 8.1 本章简介 - -恭喜你,经过前面七章内容的学习,你已经逐步熟悉了PyTorch的使用,能够定义和修改自己的模型,学会了常用的训练技巧,并通过可视化辅助PyTorch的使用。 - -PyTorch的强大并不仅局限于自身的易用性,更在于开源社区围绕PyTorch所产生的一系列工具包(一般是Python package)和程序,这些优秀的工具包极大地方便了PyTorch在特定领域的使用。比如对于计算机视觉,有TorchVision、TorchVideo等用于图片和视频处理;对于自然语言处理,有torchtext;对于图卷积网络,有PyTorch Geometric ······。这里只是举例,每个领域还有很多优秀的工具包供社区使用。这些工具包共同构成了PyTorch的生态(EcoSystem)。 - -PyTorch生态很大程度助力了PyTorch的推广与成功。在特定领域使用PyTorch生态中的工具包,能够极大地降低入门门槛,方便复现已有的工作。比如我们在讨论模型修改时候就用到了torchvision中预定义的resnet结构,而不需要自己重新编写。同时,PyTorch生态有助于社区力量的加入,共同为社区提供更有价值的内容和程序,这也是开源理念所坚持的价值。 - -在后面的内容中,我们会逐步介绍PyTorch生态在图像、视频、文本等领域中的发展,针对某个领域我们选择其中有代表性的一个工具包进行详细介绍,主要包括工具包的作者或其所在机构、数据预处理工具(这块可能再引入第三方工具包)、数据扩增、常用模型结构的预定义、预训练模型权重、常用损失函数、常用评测指标、封装好的训练&测试模块,以及可视化工具。这些内容也是我们在使用对应工具包时会用到的。读者可以根据自身需要重点学习,对于自己研究所不涉及的工具包,可以只做了解,需要使用时再来学习。 - - - -**注:** - -本章内容会不断更新,欢迎大家在issue中提出宝贵建议,或者直接pull request~ - diff --git "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.2 \345\233\276\345\203\217 - torchvision.md.txt" "b/docs/_sources/\347\254\254\345\205\253\347\253\240/8.2 \345\233\276\345\203\217 - torchvision.md.txt" deleted file mode 100644 index a6b762858..000000000 --- "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.2 \345\233\276\345\203\217 - torchvision.md.txt" +++ /dev/null @@ -1,134 +0,0 @@ -# 8.2 torchvision - -PyTorch之所以会在短短的几年时间里发展成为主流的深度学习框架,除去框架本身的优势,还在于PyTorch有着良好的生态圈。在前面的学习和实战中,我们经常会用到torchvision来调用预训练模型,加载数据集,对图片进行数据增强的操作。在本章我们将给大家简单介绍下torchvision以及相关操作。 - -经过本节的学习,你将收获: - -- 了解torchvision -- 了解torchvision的作用 - - - -## 8.2.1 torchvision简介 - -" The torchvision package consists of popular datasets, model architectures, and common image transformations for computer vision. " - -正如引言介绍的一样,我们可以知道torchvision包含了在计算机视觉中常常用到的数据集,模型和图像处理的方式,而具体的torchvision则包括了下面这几部分,带 ***** 的部分是我们经常会使用到的一些库,所以在下面的部分我们对这些库进行一个简单的介绍: - -+ torchvision.datasets * -+ torchvision.models * -+ torchvision.tramsforms * -+ torchvision.io -+ torchvision.ops -+ torchvision.utils - - - -## 8.2.2 torchvision.datasets - -`torchvision.datasets`主要包含了一些我们在计算机视觉中常见的数据集,在==0.10.0版本==的`torchvision`下,有以下的数据集: - -| Caltech | CelebA | CIFAR | Cityscapes | -| ------------- | ---------------- | ----------------- | ---------- | -| **EMNIST** | **FakeData** | **Fashion-MNIST** | **Flickr** | -| **ImageNet** | **Kinetics-400** | **KITTI** | **KMNIST** | -| **PhotoTour** | **Places365** | **QMNIST** | **SBD** | -| **SEMEION** | **STL10** | **SVHN** | **UCF101** | -| **VOC** | **WIDERFace** | | | - - - -## 8.2.3 torchvision.transforms - -我们知道在计算机视觉中处理的数据集有很大一部分是图片类型的,如果获取的数据是格式或者大小不一的图片,则需要进行归一化和大小缩放等操作,这些是常用的数据预处理方法。除此之外,当图片数据有限时,我们还需要通过对现有图片数据进行各种变换,如缩小或放大、水平或垂直翻转等,这些是常见的数据增强方法。而torchvision.transforms中就包含了许多这样的操作。在之前第四章的Fashion-mnist实战中对数据的处理时我们就用到了torchvision.transformer: - -```python -from torchvision import transforms -data_transform = transforms.Compose([ - transforms.ToPILImage(), # 这一步取决于后续的数据读取方式,如果使用内置数据集则不需要 - transforms.Resize(image_size), - transforms.ToTensor() -]) -``` - -除了上面提到的几种数据增强操作,在torchvision官方文档里提到了更多的操作,具体使用方法也可以参考本节配套的”transforms.ipynb“,在这个notebook中我们给出了常见的transforms的API及其使用方法,更多数据变换的操作我们可以点击[这里](https://pytorch.org/vision/stable/transforms.html)进行查看。 - - - -## 8.2.4 torchvision.models - -为了提高训练效率,减少不必要的重复劳动,PyTorch官方也提供了一些预训练好的模型供我们使用,可以点击[这里](https://github.com/pytorch/vision/tree/master/torchvision/models)进行查看现在有哪些预训练模型,下面我们将对如何使用这些模型进行详细介绍。 此处我们以torchvision0.10.0 为例,如果希望获取更多的预训练模型,可以使用使用pretrained-models.pytorch仓库。现有预训练好的模型可以分为以下几类: - -+ **Classification** - -在图像分类里面,PyTorch官方提供了以下模型,并正在不断增多。 - -| AlexNet | VGG | ResNet | SqueezeNet | -| --------------- | ---------------- | ------------- | ----------------- | -| **DenseNet** | **Inception v3** | **GoogLeNet** | **ShuffleNet v2** | -| **MobileNetV2** | **MobileNetV3** | **ResNext** | **Wide ResNet** | -| **MNASNet** | **EfficientNet** | **RegNet** | **持续更新** | - -这些模型是在ImageNet-1k进行预训练好的,具体的使用我们会在后面进行介绍。除此之外,我们也可以点击[这里](https://pytorch.org/vision/stable/models.html#)去查看这些模型在ImageNet-1k的准确率。 - -- **Semantic Segmentation** - -语义分割的预训练模型是在COCO train2017的子集上进行训练的,提供了20个类别,包括background, aeroplane, bicycle, bird, boat, bottle, bus, car, cat, chair, cow, diningtable, dog, horse, motorbike, person, pottedplant, sheep, sofa,train, tvmonitor。 - -| **FCN ResNet50** | **FCN ResNet101** | **DeepLabV3 ResNet50** | **DeepLabV3 ResNet101** | -| ----------------------------- | ------------------------------- | ---------------------- | ----------------------- | -| **LR-ASPP MobileNetV3-Large** | **DeepLabV3 MobileNetV3-Large** | **未完待续** | | - -具体我们可以点击[这里](https://pytorch.org/vision/stable/models.html#semantic-segmentation)进行查看预训练的模型的`mean IOU`和` global pixelwise acc` - -- **Object Detection,instance Segmentation and Keypoint Detection** - -物体检测,实例分割和人体关键点检测的模型我们同样是在COCO train2017进行训练的,在下方我们提供了实例分割的类别和人体关键点检测类别: - -```python -COCO_INSTANCE_CATEGORY_NAMES = [ - '__background__', 'person', 'bicycle', 'car', 'motorcycle', 'airplane', 'bus','train', 'truck', 'boat', 'traffic light', 'fire hydrant', 'N/A', 'stop sign', 'parking meter', 'bench', 'bird', 'cat', 'dog', 'horse', 'sheep', 'cow', 'elephant', 'bear', 'zebra', 'giraffe', 'N/A', 'backpack', 'umbrella', 'N/A', 'N/A','handbag', 'tie', 'suitcase', 'frisbee', 'skis', 'snowboard', 'sports ball','kite', 'baseball bat', 'baseball glove', 'skateboard', 'surfboard', 'tennis racket','bottle', 'N/A', 'wine glass', 'cup', 'fork', 'knife', 'spoon', 'bowl','banana', 'apple', 'sandwich', 'orange', 'broccoli', 'carrot', 'hot dog', 'pizza','donut', 'cake', 'chair', 'couch', 'potted plant', 'bed', 'N/A', 'dining table','N/A', 'N/A', 'toilet', 'N/A', 'tv', 'laptop', 'mouse', 'remote', 'keyboard', 'cell phone','microwave', 'oven', 'toaster', 'sink', 'refrigerator', 'N/A', 'book','clock', 'vase', 'scissors', 'teddy bear', 'hair drier', 'toothbrush'] -COCO_PERSON_KEYPOINT_NAMES =['nose','left_eye','right_eye','left_ear','right_ear','left_shoulder','right_shoulder','left_elbow','right_elbow','left_wrist','right_wrist','left_hip','right_hip','left_knee','right_knee','left_ankle','right_ankle'] -``` - -| **Faster R-CNN** | **Mask R-CNN** | **RetinaNet** | **SSDlite** | -| ---------------- | -------------- | ------------- | ----------- | -| **SSD** | **未完待续** | | | - -同样的,我们可以点击[这里](https://pytorch.org/vision/stable/models.html#object-detection-instance-segmentation-and-person-keypoint-detection)查看这些模型在COCO train 2017上的`box AP`,`keypoint AP`,`mask AP` - -- **Video classification** - -视频分类模型是在 Kinetics-400上进行预训练的 - -| **ResNet 3D 18** | **ResNet MC 18** | **ResNet (2+1) D** | -| ---------------- | ---------------- | ------------------ | -| **未完待续** | | | - -同样我们也可以点击[这里](https://pytorch.org/vision/stable/models.html#video-classification)查看这些模型的`Clip acc@1`,`Clip acc@5` - - - -## 8.2.5 torchvision.io - -在`torchvision.io`提供了视频、图片和文件的 IO 操作的功能,它们包括读取、写入、编解码处理操作。随着torchvision的发展,io也增加了更多底层的高效率的API。在使用torchvision.io的过程中,我们需要注意以下几点: - -- 不同版本之间,`torchvision.io`有着较大变化,因此在使用时,需要查看下我们的`torchvision`版本是否存在你想使用的方法。 -- 除了read_video()等方法,torchvision.io为我们提供了一个细粒度的视频API torchvision.io.VideoReader() ,它具有更高的效率并且更加接近底层处理。在使用时,我们需要先安装ffmpeg然后从源码重新编译torchvision我们才能我们能使用这些方法。 -- 在使用Video相关API时,我们最好提前安装好PyAV这个库。 - - - -## 8.2.6 torchvision.ops - -torchvision.ops 为我们提供了许多计算机视觉的特定操作,包括但不仅限于NMS,RoIAlign(MASK R-CNN中应用的一种方法),RoIPool(Fast R-CNN中用到的一种方法)。在合适的时间使用可以大大降低我们的工作量,避免重复的造轮子,想看更多的函数介绍可以点击[这里](https://pytorch.org/vision/stable/ops.html)进行细致查看。 - - - -## 8.2.7 torchvision.utils - -torchvision.utils 为我们提供了一些可视化的方法,可以帮助我们将若干张图片拼接在一起、可视化检测和分割的效果。具体方法可以点击[这里](https://pytorch.org/vision/stable/utils.html)进行查看。 - - - -总的来说,torchvision的出现帮助我们解决了常见的计算机视觉中一些重复且耗时的工作,并在数据集的获取、数据增强、模型预训练等方面大大降低了我们的工作难度,可以让我们更加快速上手一些计算机视觉任务。 diff --git "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.3 \350\247\206\351\242\221 - PyTorchVideo.md.txt" "b/docs/_sources/\347\254\254\345\205\253\347\253\240/8.3 \350\247\206\351\242\221 - PyTorchVideo.md.txt" deleted file mode 100644 index daca38d99..000000000 --- "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.3 \350\247\206\351\242\221 - PyTorchVideo.md.txt" +++ /dev/null @@ -1,108 +0,0 @@ -# 8.3 PyTorchVideo简介 - -![](./figures/logo2.jpg) - -近几年来,随着传播媒介和视频平台的发展,视频正在取代图片成为下一代的主流媒体,这也使得有关视频的深度学习模型正在获得越来越多的关注。然而,有关视频的深度学习模型仍然有着许多缺点: - -- 计算资源耗费更多,并且没有高质量的`model zoo`,不能像图片一样进行迁移学习和论文复现。 -- 数据集处理较麻烦,但没有一个很好的视频处理工具。 -- 随着多模态越来越流行,亟需一个工具来处理其他模态。 - -除此之外,还有部署优化等问题,为了解决这些问题,Meta推出了`PyTorchVideo`深度学习库(包含组件如Figure 1所示)。PyTorchVideo 是一个专注于视频理解工作的深度学习库。PytorchVideo 提供了加速视频理解研究所需的可重用、模块化和高效的组件。PyTorchVideo 是使用[PyTorch](https://pytorch.org/)开发的,支持不同的深度学习视频组件,如视频模型、视频数据集和视频特定转换。 - -![](./figures/list.png) - - - -## 8.3.1 PyTorchVideo的主要部件和亮点 - -PytorchVideo 提供了加速视频理解研究所需的模块化和高效的API。它还支持不同的深度学习视频组件,如视频模型、视频数据集和视频特定转换,最重要的是,PytorchVideo也提供了model zoo,使得人们可以使用各种先进的预训练视频模型及其评判基准。PyTorchVideo主要亮点如下: - -- **基于 PyTorch:**使用 PyTorch 构建。使所有 PyTorch 生态系统组件的使用变得容易。 -- **Model Zoo:**PyTorchVideo提供了包含I3D、R(2+1)D、SlowFast、X3D、MViT等SOTA模型的高质量model zoo(目前还在快速扩充中,未来会有更多SOTA model),并且PyTorchVideo的model zoo调用与[PyTorch Hub](https://link.zhihu.com/?target=https%3A//pytorch.org/hub/)做了整合,大大简化模型调用,具体的一些调用方法可以参考下面的【使用 PyTorchVideo model zoo】部分。 - -- **数据预处理和常见数据**,PyTorchVideo支持Kinetics-400, Something-Something V2, Charades, Ava (v2.2), Epic Kitchen, HMDB51, UCF101, Domsev等主流数据集和相应的数据预处理,同时还支持randaug, augmix等数据增强trick。 -- **模块化设计**:PyTorchVideo的设计类似于torchvision,也是提供许多模块方便用户调用修改,在PyTorchVideo中具体来说包括data, transforms, layer, model, accelerator等模块,方便用户进行调用和读取。 -- **支持多模态**:PyTorchVideo现在对多模态的支持包括了visual和audio,未来会支持更多模态,为多模态模型的发展提供支持。 -- **移动端部署优化**:PyTorchVideo支持针对移动端模型的部署优化(使用前述的PyTorchVideo/accelerator模块),模型经过PyTorchVideo优化了最高达**7倍**的提速,并实现了第一个能实时跑在手机端的X3D模型(实验中可以实时跑在2018年的三星Galaxy S8上,具体请见[Android Demo APP](https://github.com/pytorch/android-demo-app/tree/master/TorchVideo))。 - - - -## 8.3.2 PyTorchVideo的安装 - -我们可以直接使用pip来安装PyTorchVideo: - -```shell -pip install pytorchvideo -``` - -注: - -- 安装的虚拟环境的python版本 >= 3.7 -- PyTorch >= 1.8.0,安装的torchvision也需要匹配 -- CUDA >= 10.2 -- ioPath:[具体情况](https://github.com/facebookresearch/iopath) -- fvcore版本 >= 0.1.4:[具体情况](https://github.com/facebookresearch/fvcore) - - - -## 8.3.3 Model zoo 和 benchmark - -在下面这部分,我将简单介绍些PyTorchVideo所提供的Model zoo和benchmark - -- Kinetics-400 - -| arch | depth | pretrain | frame length x sample rate | top 1 | top 5 | Flops (G) x views | Params (M) | Model | -| -------- | ----- | -------- | -------------------------- | ----- | ----- | ----------------- | ---------- | ------------------------------------------------------------ | -| C2D | R50 | \- | 8x8 | 71.46 | 89.68 | 25.89 x 3 x 10 | 24.33 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/C2D\_8x8\_R50.pyth) | -| I3D | R50 | \- | 8x8 | 73.27 | 90.70 | 37.53 x 3 x 10 | 28.04 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/I3D\_8x8\_R50.pyth) | -| Slow | R50 | \- | 4x16 | 72.40 | 90.18 | 27.55 x 3 x 10 | 32.45 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/SLOW\_4x16\_R50.pyth) | -| Slow | R50 | \- | 8x8 | 74.58 | 91.63 | 54.52 x 3 x 10 | 32.45 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/SLOW\_8x8\_R50.pyth) | -| SlowFast | R50 | \- | 4x16 | 75.34 | 91.89 | 36.69 x 3 x 10 | 34.48 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/SLOWFAST\_4x16\_R50.pyth) | -| SlowFast | R50 | \- | 8x8 | 76.94 | 92.69 | 65.71 x 3 x 10 | 34.57 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/SLOWFAST\_8x8\_R50.pyth) | -| SlowFast | R101 | \- | 8x8 | 77.90 | 93.27 | 127.20 x 3 x 10 | 62.83 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/SLOWFAST\_8x8\_R101.pyth) | -| SlowFast | R101 | \- | 16x8 | 78.70 | 93.61 | 215.61 x 3 x 10 | 53.77 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/SLOWFAST\_16x8\_R101_50_50.pyth) | -| CSN | R101 | \- | 32x2 | 77.00 | 92.90 | 75.62 x 3 x 10 | 22.21 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/CSN\_32x2\_R101.pyth) | -| R(2+1)D | R50 | \- | 16x4 | 76.01 | 92.23 | 76.45 x 3 x 10 | 28.11 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/R2PLUS1D\_16x4\_R50.pyth) | -| X3D | XS | \- | 4x12 | 69.12 | 88.63 | 0.91 x 3 x 10 | 3.79 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/X3D\_XS.pyth) | -| X3D | S | \- | 13x6 | 73.33 | 91.27 | 2.96 x 3 x 10 | 3.79 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/X3D\_S.pyth) | -| X3D | M | \- | 16x5 | 75.94 | 92.72 | 6.72 x 3 x 10 | 3.79 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/X3D\_M.pyth) | -| X3D | L | \- | 16x5 | 77.44 | 93.31 | 26.64 x 3 x 10 | 6.15 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/X3D\_L.pyth) | -| MViT | B | \- | 16x4 | 78.85 | 93.85 | 70.80 x 1 x 5 | 36.61 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/MVIT\_B\_16x4.pyth) | -| MViT | B | \- | 32x3 | 80.30 | 94.69 | 170.37 x 1 x 5 | 36.61 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/kinetics/MVIT\_B\_32x3\_f294077834.pyth) | - -- Something-Something V2 - -| arch | depth | pretrain | frame length x sample rate | top 1 | top 5 | Flops (G) x views | Params (M) | Model | -| -------- | ----- | ------------ | -------------------------- | ----- | ----- | ----------------- | ---------- | ------------------------------------------------------------ | -| Slow | R50 | Kinetics 400 | 8x8 | 60.04 | 85.19 | 55.10 x 3 x 1 | 31.96 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/ssv2/SLOW\_8x8\_R50.pyth) | -| SlowFast | R50 | Kinetics 400 | 8x8 | 61.68 | 86.92 | 66.60 x 3 x 1 | 34.04 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/ssv2/SLOWFAST\_8x8\_R50.pyth) | - -- Charades - -| arch | depth | pretrain | frame length x sample rate | MAP | Flops (G) x views | Params (M) | Model | -| -------- | ----- | ------------ | -------------------------- | ----- | ----------------- | ---------- | ------------------------------------------------------------ | -| Slow | R50 | Kinetics 400 | 8x8 | 34.72 | 55.10 x 3 x 10 | 31.96 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/charades/SLOW\_8x8\_R50.pyth) | -| SlowFast | R50 | Kinetics 400 | 8x8 | 37.24 | 66.60 x 3 x 10 | 34.00 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/charades/SLOWFAST\_8x8\_R50.pyth) | - -- AVA (V2.2) - -| arch | depth | pretrain | frame length x sample rate | MAP | Params (M) | Model | -| -------- | ----- | ------------ | -------------------------- | ----- | ---------- | ------------------------------------------------------------ | -| Slow | R50 | Kinetics 400 | 4x16 | 19.5 | 31.78 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/ava/SLOW\_4x16\_R50\_DETECTION.pyth) | -| SlowFast | R50 | Kinetics 400 | 8x8 | 24.67 | 33.82 | [link](https://dl.fbaipublicfiles.com/pytorchvideo/model_zoo/ava/SLOWFAST\_8x8\_R50\_DETECTION.pyth) | - - - -## 8.3.4 使用 PyTorchVideo model zoo - -PyTorchVideo提供了三种使用方法,并且给每一种都配备了`tutorial` - -* TorchHub,这些模型都已经在TorchHub存在。我们可以根据实际情况来选择需不需要使用预训练模型。除此之外,官方也给出了TorchHub使用的 [tutorial](https://pytorchvideo.org/docs/tutorial_torchhub_inference) 。 -* PySlowFast,使用 [PySlowFast workflow](https://github.com/facebookresearch/SlowFast/) 去训练或测试PyTorchVideo models/datasets. -* [PyTorch Lightning](https://github.com/PyTorchLightning/pytorch-lightning)建立一个工作流进行处理,点击查看官方 [tutorial](https://pytorchvideo.org/docs/tutorial_classification)。 - -- 如果想查看更多的使用教程,可以点击 [这里](https://github.com/facebookresearch/pytorchvideo/tree/main/tutorials) 进行尝试 - -总的来说,PyTorchVideo的使用与torchvision的使用方法类似,在有了前面的学习基础上,我们可以很快上手PyTorchVideo,具体的我们可以通过查看官方提供的文档和一些例程来了解使用方法:[官方网址](https://pytorchvideo.readthedocs.io/en/latest/index.html) - diff --git "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.4 \346\226\207\346\234\254 - torchtext.md.txt" "b/docs/_sources/\347\254\254\345\205\253\347\253\240/8.4 \346\226\207\346\234\254 - torchtext.md.txt" deleted file mode 100644 index c38c7ec65..000000000 --- "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.4 \346\226\207\346\234\254 - torchtext.md.txt" +++ /dev/null @@ -1,172 +0,0 @@ -# 8.4 torchtext简介 - -本节我们来介绍PyTorch官方用于自然语言处理(NLP)的工具包torchtext。自然语言处理也是深度学习的一大应用场景,近年来随着大规模预训练模型的应用,深度学习在人机对话、机器翻译等领域的取得了非常好的效果,也使得NLP相关的深度学习模型获得了越来越多的关注。 - -由于NLP和CV在数据预处理中的不同,因此NLP的工具包torchtext和torchvision等CV相关工具包也有一些功能上的差异,如: - -- 数据集(dataset)定义方式不同 -- 数据预处理工具 -- 没有琳琅满目的model zoo - -本节介绍参考了[atnlp的Github](https://github.com/atnlp/torchtext-summary),在此致谢! - - - -## 8.4.1 torchtext的主要组成部分 - -torchtext可以方便的对文本进行预处理,例如截断补长、构建词表等。torchtext主要包含了以下的主要组成部分: - -- 数据处理工具 torchtext.data.functional、torchtext.data.utils -- 数据集 torchtext.data.datasets -- 词表工具 torchtext.vocab -- 评测指标 torchtext.metrics - -## 8.4.2 torchtext的安装 - -torchtext可以直接使用pip进行安装: - -```bash -pip install torchtext -``` - -## 8.4.3 构建数据集 - -- **Field及其使用** - -Field是torchtext中定义数据类型以及转换为张量的指令。`torchtext` 认为一个样本是由多个字段(文本字段,标签字段)组成,不同的字段可能会有不同的处理方式,所以才会有 `Field` 抽象。定义Field对象是为了明确如何处理不同类型的数据,但具体的处理则是在Dataset中完成的。下面我们通过一个例子来简要说明一下Field的使用: - -```python -tokenize = lambda x: x.split() -TEXT = data.Field(sequential=True, tokenize=tokenize, lower=True, fix_length=200) -LABEL = data.Field(sequential=False, use_vocab=False) -``` - -其中: - -​ sequential设置数据是否是顺序表示的; - -​ tokenize用于设置将字符串标记为顺序实例的函数 - -​ lower设置是否将字符串全部转为小写; - -​ fix_length设置此字段所有实例都将填充到一个固定的长度,方便后续处理; - -​ use_vocab设置是否引入Vocab object,如果为False,则需要保证之后输入field中的data都是numerical的 - -构建Field完成后就可以进一步构建dataset了: - -```python -from torchtext import data -def get_dataset(csv_data, text_field, label_field, test=False): - fields = [("id", None), # we won't be needing the id, so we pass in None as the field - ("comment_text", text_field), ("toxic", label_field)] - examples = [] - - if test: - # 如果为测试集,则不加载label - for text in tqdm(csv_data['comment_text']): - examples.append(data.Example.fromlist([None, text, None], fields)) - else: - for text, label in tqdm(zip(csv_data['comment_text'], csv_data['toxic'])): - examples.append(data.Example.fromlist([None, text, label], fields)) - return examples, fields -``` - -这里使用数据csv_data中有"comment_text"和"toxic"两列,分别对应text和label。 - -```python -train_data = pd.read_csv('train_toxic_comments.csv') -valid_data = pd.read_csv('valid_toxic_comments.csv') -test_data = pd.read_csv("test_toxic_comments.csv") -TEXT = data.Field(sequential=True, tokenize=tokenize, lower=True) -LABEL = data.Field(sequential=False, use_vocab=False) - -# 得到构建Dataset所需的examples和fields -train_examples, train_fields = get_dataset(train_data, TEXT, LABEL) -valid_examples, valid_fields = get_dataset(valid_data, TEXT, LABEL) -test_examples, test_fields = get_dataset(test_data, TEXT, None, test=True) -# 构建Dataset数据集 -train = data.Dataset(train_examples, train_fields) -valid = data.Dataset(valid_examples, valid_fields) -test = data.Dataset(test_examples, test_fields) -``` - -可以看到,定义Field对象完成后,通过get_dataset函数可以读入数据的文本和标签,将二者(examples)连同field一起送到torchtext.data.Dataset类中,即可完成数据集的构建。使用以下命令可以看下读入的数据情况: - -```python -# 检查keys是否正确 -print(train[0].__dict__.keys()) -print(test[0].__dict__.keys()) -# 抽查内容是否正确 -print(train[0].comment_text) -``` - -- **词汇表(vocab)** - -在NLP中,将字符串形式的词语(word)转变为数字形式的向量表示(embedding)是非常重要的一步,被称为Word Embedding。这一步的基本思想是收集一个比较大的语料库(尽量与所做的任务相关),在语料库中使用word2vec之类的方法构建词语到向量(或数字)的映射关系,之后将这一映射关系应用于当前的任务,将句子中的词语转为向量表示。 - -在torchtext中可以使用Field自带的build_vocab函数完成词汇表构建。 - -```python -TEXT.build_vocab(train) -``` - -- **数据迭代器** - -其实就是torchtext中的DataLoader,看下代码就明白了: - -```python -from torchtext.data import Iterator, BucketIterator -# 若只针对训练集构造迭代器 -# train_iter = data.BucketIterator(dataset=train, batch_size=8, shuffle=True, sort_within_batch=False, repeat=False) - -# 同时对训练集和验证集进行迭代器的构建 -train_iter, val_iter = BucketIterator.splits( - (train, valid), # 构建数据集所需的数据集 - batch_sizes=(8, 8), - device=-1, # 如果使用gpu,此处将-1更换为GPU的编号 - sort_key=lambda x: len(x.comment_text), # the BucketIterator needs to be told what function it should use to group the data. - sort_within_batch=False -) - -test_iter = Iterator(test, batch_size=8, device=-1, sort=False, sort_within_batch=False) -``` - -torchtext支持只对一个dataset和同时对多个dataset构建数据迭代器。 - -- **使用自带数据集** - -与torchvision类似,torchtext也提供若干常用的数据集方便快速进行算法测试。可以查看[官方文档](https://pytorch.org/text/stable/datasets.html)寻找想要使用的数据集。 - - - -## 8.4.4 评测指标(metric) - -NLP中部分任务的评测不是通过准确率等指标完成的,比如机器翻译任务常用BLEU (bilingual evaluation understudy) score来评价预测文本和标签文本之间的相似程度。torchtext中可以直接调用torchtext.data.metrics.bleu_score来快速实现BLEU,下面是一个官方文档中的一个例子: - -```python -from torchtext.data.metrics import bleu_score -candidate_corpus = [['My', 'full', 'pytorch', 'test'], ['Another', 'Sentence']] -references_corpus = [[['My', 'full', 'pytorch', 'test'], ['Completely', 'Different']], [['No', 'Match']]] -bleu_score(candidate_corpus, references_corpus) -``` - -``` -0.8408964276313782 -``` - - - -## 8.4.5 其他 - -值得注意的是,由于NLP常用的网络结构比较固定,torchtext并不像torchvision那样提供一系列常用的网络结构。模型主要通过torch.nn中的模块来实现,比如torch.nn.LSTM、torch.nn.RNN等。 - -**备注:** - -对于文本研究而言,当下Transformer已经成为了绝对的主流,因此PyTorch生态中的[HuggingFace](https://huggingface.co/)等工具包也受到了越来越广泛的关注。这里强烈建议读者自行探索相关内容,可以写下自己对于HuggingFace的笔记,如果总结全面的话欢迎pull request,充实我们的课程内容。 - -**本节参考** - -- [torchtext官方文档](https://pytorch.org/text/stable/index.html) -- [atnlp/torchtext-summary](https://github.com/atnlp/torchtext-summary) - diff --git "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.5 \351\237\263\351\242\221 - torchaudio.md.txt" "b/docs/_sources/\347\254\254\345\205\253\347\253\240/8.5 \351\237\263\351\242\221 - torchaudio.md.txt" deleted file mode 100644 index d54ade84c..000000000 --- "a/docs/_sources/\347\254\254\345\205\253\347\253\240/8.5 \351\237\263\351\242\221 - torchaudio.md.txt" +++ /dev/null @@ -1,135 +0,0 @@ -# 8.5 torchaudio简介 - -本节我们来介绍PyTorch官方用于语音处理的工具包torchaduio。语音的处理也是深度学习的一大应用场景,包括说话人识别(Speaker Identification),说话人分离(Speaker Diarization),音素识别(Phoneme Recognition),语音识别(Automatic Speech Recognition),语音分离(Speech Separation),文本转语音(TTS)等任务。 - -CV有torchvision,NLP有torchtext,人们希望语音领域中也能有一个工具包。而语音的处理工具包就是torchaudio。由于语音任务本身的特性,导致其与NLP和CV在数据处理、模型构建、模型验证有许多不同,因此语音的工具包torchaudio和torchvision等CV相关工具包也有一些功能上的差异。 - -通过本章的学习,你将收获: - -- 语音数据的I/O -- 语音数据的预处理 -- 语音领域的数据集 -- 语音领域的模型 - -## 8.4.1 torchaduio的主要组成部分 -torchaduio主要包括以下几个部分: - -- torchaudio.io:有关音频的I/O -- torchaudio.backend:提供了音频处理的后端,包括:sox,soundfile等 -- torchaudio.functional:包含了常用的语音数据处理方法,如:spectrogram,create_fb_matrix等 -- torchaudio.transforms:包含了常用的语音数据预处理方法,如:MFCC,MelScale,AmplitudeToDB等 -- torchaudio.datasets:包含了常用的语音数据集,如:VCTK,LibriSpeech,yesno等 -- torchaudio.models:包含了常用的语音模型,如:Wav2Letter,DeepSpeech等 -- torchaudio.models.decoder:包含了常用的语音解码器,如:GreedyDecoder,BeamSearchDecoder等 -- torchaudio.pipelines:包含了常用的语音处理流水线,如:SpeechRecognitionPipeline,SpeakerRecognitionPipeline等 -- torchaudio.sox_effects:包含了常用的语音处理方法,如:apply_effects_tensor,apply_effects_file等 -- torchaudio.compliance.kaldi:包含了与Kaldi工具兼容的方法,如:load_kaldi_fst,load_kaldi_ark等 -- torchaudio.kalid_io:包含了与Kaldi工具兼容的方法,如:read_vec_flt_scp,read_vec_int_scp等 -- torchaudio.utils:包含了常用的语音工具方法,如:get_audio_backend,set_audio_backend等 - -## 8.4.2 torchaduio的安装 -一般在安装torch的同时,也会安装torchaudio。假如我们的环境中没有torchaudio,我们可以使用pip或者conda去安装它。只需要执行以下命令即可: - -```shell -pip install torchaudio # conda install torchaudio -``` -在安装的时候,我们一定要根据自己的PyTorch版本和Python版本选择对应的torchaudio的版本,具体我们可以查看[torchaudio Compatibility Matrix](https://pytorch.org/audio/main/installation.html#compatibility-matrix) - -## 8.4.3 datasets的构建 -torchaudio中对于一些公共数据集,我们可以主要通过torchaudio.datasets来实现。对于私有数据集,我们也可以通过继承torch.utils.data.Dataset来构建自己的数据集。数据集的读取和处理,我们可以通过torch.utils.data.DataLoader来实现。 -```python -import torchaudio -import torch - -# 公共数据集的构建 -yesno_data = torchaudio.datasets.YESNO('.', download=True) -data_loader = torch.utils.data.DataLoader( - yesno_data, - batch_size=1, - shuffle=True, - num_workers=4) -``` - -torchaudio提供了许多常用的语音数据集,包括CMUARCTIC,CMUDict,COMMONVOICE,DR_VCTK,FluentSpeechCommands,GTZAN,IEMOCAP,LIBRISPEECH,LIBRITTS,LJSPEECH,LibriLightLimited,LibriMix,MUSDB_HQ,QUESST14,SPEECHCOMMANDS,Snips,TEDLIUM,VCTK_092,VoxCeleb1Identification,VoxCeleb1Verification,YESNO等。具体的我们可以通过以下命令来查看: - -```python -import torchaudio -dir(torchaudio.datasets) -``` -```shell -'CMUARCTIC','CMUDict','COMMONVOICE','DR_VCTK','FluentSpeechCommands', -'GTZAN','IEMOCAP','LIBRISPEECH','LIBRITTS','LJSPEECH','LibriLightLimited', -'LibriMix','MUSDB_HQ','QUESST14','SPEECHCOMMANDS','Snips','TEDLIUM', -'VCTK_092','VoxCeleb1Identification','VoxCeleb1Verification','YESNO'] -``` -## 8.4.4 model和pipeline的构建 -torchaudio.models包含了常见语音任务的模型的定义,包括:Wav2Letter,DeepSpeech,HuBERTPretrainModel等。torchaudio.pipelines则是将预训练模型和其对应的任务组合在一起,构成了一个完整的语音处理流水线。torchaudio.pipeline相较于torchvision这种视觉库而言,是torchaudio的精华部分。我们在此也不进行过多的阐述,对于进一步的学习,我们可以参考官方给出的[Pipeline Tutorials](https://pytorch.org/audio/stable/tutorials/speech_recognition_pipeline_tutorial.html)和[torchaudio.pipelines docs](https://pytorch.org/audio/stable/pipelines.html)。 - - -## 8.4.5 transforms和functional的使用 -torchaudio.transform模块包含常见的音频处理和特征提取。torchaudio.functional则包括了一些常见的音频操作的函数。关于torchaudio.transform,官方提供了一个流程图供我们参考学习: -![torchaudio_feature_extaction](./figures/torchaudio_feature_extractions.png) -torchaudio.transforms继承于torch.nn.Module,但是不同于torchvision.transforms,torchaudio没有compose方法将多个transform组合起来。因此torchaudio构建transform pipeline的常见方法是自定义模块类或使用torch.nn.Sequential将他们在一起。然后将其移动到目标设备和数据类型。我们可以参考官方所给出的例子: -```python -# Define custom feature extraction pipeline. -# -# 1. Resample audio -# 2. Convert to power spectrogram -# 3. Apply augmentations -# 4. Convert to mel-scale -# -class MyPipeline(torch.nn.Module): - def __init__( - self, - input_freq=16000, - resample_freq=8000, - n_fft=1024, - n_mel=256, - stretch_factor=0.8, - ): - super().__init__() - self.resample = Resample(orig_freq=input_freq, new_freq=resample_freq) - self.spec = Spectrogram(n_fft=n_fft, power=2) - self.spec_aug = torch.nn.Sequential( - TimeStretch(stretch_factor, fixed_rate=True), - FrequencyMasking(freq_mask_param=80), - TimeMasking(time_mask_param=80), - ) - self.mel_scale = MelScale( - n_mels=n_mel, sample_rate=resample_freq, n_stft=n_fft // 2 + 1) - - def forward(self, waveform: torch.Tensor) -> torch.Tensor: - # Resample the input - resampled = self.resample(waveform) - # Convert to power spectrogram - spec = self.spec(resampled) - # Apply SpecAugment - spec = self.spec_aug(spec) - # Convert to mel-scale - mel = self.mel_scale(spec) - return mel -``` -torchaudio.transform的使用,我们可以参考[torchaudio.transforms](https://pytorch.org/audio/main/transforms.html)进一步了解。 - -torchaudio.functional支持了许多语音的处理方法,关于torchaudio.functional的使用,我们可以参考[torchaudio.functional](https://pytorch.org/audio/main/functional.html)进一步了解。 -## 8.4.6 compliance和kaldi_io的使用 -Kaldi是一个用于语音识别研究的工具箱,由CMU开发,开源免费。它包含了构建语音识别系统所需的全部组件,是语音识别领域最流行和影响力最大的开源工具之一。torchaudio中提供了一些与Kaldi工具兼容的方法,这些方法分别属于torchaduio.compliance.kaldi,torchaduio.kaldi_io。 -### torchaduio.compliance.kaldi -在torchaudio.compliance.kaldi中,torchaudio提供了以下三种方法: -- torchaudio.compliance.kaldi.spectrogram:从语音信号中提取Spectrogram特征 -- torchaudio.compliance.kaldi.fbank:从语音信号中提取FBank特征 -- torchaduio.compliance.kaldi.mfcc:从语音信号中提取MFCC特征 -### torchaduio.kaldi_io -torchaudio.kaldi_io是一个torchaudio的子模块,用于读取和写入Kaldi的数据集格式。当我们要使用torchaudio.kaldi_io时,我们需要先确保[kalid_io](https://github.com/vesis84/kaldi-io-for-python)已经安装。 - -具体来说,主要接口包括: -- torchaudio.kaldi_io.read_vec_int_ark:从Kaldi的scp文件中读取float类型的数据 -- torchaudio.kaldi_io.read_vec_flt_scp -- torchaudio.kaldi_io.read_vec_flt_ark -- torchaudio.kaldi_io.read_mat_scp -- torchaudio.kaldi_io.read_mat_ark - -具体的使用方法,我们可以参考[torchaudio.kaldi_io](https://pytorch.org/audio/stable/kaldi_io.html)进一步了解。 - -## 总结 -本节我们主要介绍了torchaudio的基本使用方法和常用的模块,如果想要进一步学习,可以参考[torchaudio官方文档](https://pytorch.org/audio/stable/index.html)。 \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\205\253\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\345\205\253\347\253\240/index.md.txt" deleted file mode 100644 index 8f3159280..000000000 --- "a/docs/_sources/\347\254\254\345\205\253\347\253\240/index.md.txt" +++ /dev/null @@ -1,9 +0,0 @@ -# 第八章:PyTorch生态简介 -```{toctree} -:maxdepth: 2 -8.1 本章简介 -8.2 图像 - torchvision -8.3 视频 - PyTorchVideo -8.4 文本 - torchtext -8.5 音频 - torchaudio -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\205\253\347\253\240/transforms\345\256\236\346\223\215.md.txt" "b/docs/_sources/\347\254\254\345\205\253\347\253\240/transforms\345\256\236\346\223\215.md.txt" deleted file mode 100644 index 2f2875067..000000000 --- "a/docs/_sources/\347\254\254\345\205\253\347\253\240/transforms\345\256\236\346\223\215.md.txt" +++ /dev/null @@ -1,249 +0,0 @@ -# transforms实战 - - -```python -from PIL import Image -from torchvision import transforms -import matplotlib.pyplot as plt -%matplotlib inline -# 加载原始图片 -img = Image.open("./lenna.jpg") -print(img.size) -plt.imshow(img) -``` - - (316, 316) - - - - - - -![png](./figures/output_1_2.png) - - - -## transforms.CenterCrop(size) - - -```python -# 对给定图片进行沿中心切割 -# 对图片沿中心放大切割,超出图片大小的部分填0 -img_centercrop1 = transforms.CenterCrop((500,500))(img) -print(img_centercrop1.size) -# 对图片沿中心缩小切割,超出期望大小的部分剔除 -img_centercrop2 = transforms.CenterCrop((224,224))(img) -print(img_centercrop2.size) -plt.subplot(1,3,1),plt.imshow(img),plt.title("Original") -plt.subplot(1,3,2),plt.imshow(img_centercrop1),plt.title("500 * 500") -plt.subplot(1,3,3),plt.imshow(img_centercrop2),plt.title("224 * 224") -plt.show() -``` - - (500, 500) - (224, 224) - - - - -![png](./figures/output_3_1.png) - - - -## transforms.ColorJitter(brightness=0, contrast=0, saturation=0, hue=0) - - -```python -# 对图片的亮度,对比度,饱和度,色调进行改变 -img_CJ = transforms.ColorJitter(brightness=1,contrast=0.5,saturation=0.5,hue=0.5)(img) -print(img_CJ.size) -plt.imshow(img_CJ) -``` - - (316, 316) - - - - - - - -![png](./figures/output_5_2.png) - - - -## transforms.Grayscale(num_output_channels) - - -```python -img_grey_c3 = transforms.Grayscale(num_output_channels=3)(img) -img_grey_c1 = transforms.Grayscale(num_output_channels=1)(img) -plt.subplot(1,2,1),plt.imshow(img_grey_c3),plt.title("channels=3") -plt.subplot(1,2,2),plt.imshow(img_grey_c1),plt.title("channels=1") -plt.show() -``` - - - -![png](./figures/output_7_0.png) - - - -## transforms.Resize - - -```python -# 等比缩放 -img_resize = transforms.Resize(224)(img) -print(img_resize.size) -plt.imshow(img_resize) -``` - - (224, 224) - - - - - - - -![png](./figures/output_9_2.png) - - - -## transforms.Scale - - -```python -# 等比缩放 不推荐使用此转换以支持调整大小 -img_scale = transforms.Scale(224)(img) -print(img_scale.size) -plt.imshow(img_scale) -``` - - (224, 224) - - - - - - - -![png](./figures/output_11_2.png) - - - -## transforms.RandomCrop - - -```python -# 随机裁剪成指定大小 -# 设立随机种子 -import torch -torch.manual_seed(31) -# 随机裁剪 -img_randowm_crop1 = transforms.RandomCrop(224)(img) -img_randowm_crop2 = transforms.RandomCrop(224)(img) -print(img_randowm_crop1.size) -plt.subplot(1,2,1),plt.imshow(img_randowm_crop1) -plt.subplot(1,2,2),plt.imshow(img_randowm_crop2) -plt.show() -``` - - (224, 224) - - - - -![png](./figures/output_13_1.png) - - - -## transforms.RandomHorizontalFlip - - -```python -# 随机左右旋转 -# 设立随机种子,可能不旋转 -import torch -torch.manual_seed(31) - -img_random_H = transforms.RandomHorizontalFlip()(img) -print(img_random_H.size) -plt.imshow(img_random_H) -``` - - (316, 316) - - - - - - - -![png](./figures/output_15_2.png) - - - -## transforms.RandomVerticalFlip - - -```python -# 随机垂直方向旋转 -img_random_V = transforms.RandomVerticalFlip()(img) -print(img_random_V.size) -plt.imshow(img_random_V) -``` - - (316, 316) - - - - - - - -![png](./figures/output_17_2.png) - - - -## transforms.RandomResizedCrop - - -```python -# 随机裁剪成指定大小 -img_random_resizecrop = transforms.RandomResizedCrop(224,scale=(0.5,0.5))(img) -print(img_random_resizecrop.size) -plt.imshow(img_random_resizecrop) -``` - - (224, 224) - - - - - - - -![png](./figures/output_19_2.png) - - - -## 对图片进行组合变化 tranforms.Compose() - - -```python -# 对一张图片的操作可能是多种的,我们使用transforms.Compose()将他们组装起来 -transformer = transforms.Compose([ - transforms.Resize(256), - transforms.transforms.RandomResizedCrop((224), scale = (0.5,1.0)), - transforms.RandomVerticalFlip(), -]) -img_transform = transformer(img) -plt.imshow(img_transform) -``` - - -![png](./figures/output_21_1.png) - - diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.1 \350\207\252\345\256\232\344\271\211\346\215\237\345\244\261\345\207\275\346\225\260.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/6.1 \350\207\252\345\256\232\344\271\211\346\215\237\345\244\261\345\207\275\346\225\260.md.txt" deleted file mode 100644 index 018f6f189..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.1 \350\207\252\345\256\232\344\271\211\346\215\237\345\244\261\345\207\275\346\225\260.md.txt" +++ /dev/null @@ -1,121 +0,0 @@ -# 6.1 自定义损失函数 - -PyTorch在torch.nn模块为我们提供了许多常用的损失函数,比如:MSELoss,L1Loss,BCELoss...... 但是随着深度学习的发展,出现了越来越多的非官方提供的Loss,比如DiceLoss,HuberLoss,SobolevLoss...... 这些Loss Function专门针对一些非通用的模型,PyTorch不能将他们全部添加到库中去,因此这些损失函数的实现则需要我们通过自定义损失函数来实现。另外,在一些算法实现中,研究者往往会提出全新的损失函数来提升模型的表现,这时我们既无法使用PyTorch自带的损失函数,也没有相关的博客供参考,此时自己实现损失函数就显得更为重要了。 - -经过本节的学习,你将收获: - -- 掌握如何自定义损失函数 - - - -## 6.1.1 以函数方式定义 - -事实上,损失函数仅仅是一个函数而已,因此我们可以通过直接以函数定义的方式定义一个自己的函数,如下所示: - -```python -def my_loss(output, target): - loss = torch.mean((output - target)**2) - return loss -``` - -## 6.1.2 以类方式定义 - -虽然以函数定义的方式很简单,但是以类方式定义更加常用,在以类方式定义损失函数时,我们如果看每一个损失函数的继承关系我们就可以发现`Loss`函数部分继承自`_loss`, 部分继承自`_WeightedLoss`, 而`_WeightedLoss`继承自`_loss`,` _loss`继承自 **nn.Module**。我们可以将其当作神经网络的一层来对待,同样地,我们的损失函数类就需要继承自**nn.Module**类,在下面的例子中我们以DiceLoss为例向大家讲述。 - -Dice Loss是一种在分割领域常见的损失函数,定义如下: - -$$ -DSC = \frac{2|X∩Y|}{|X|+|Y|} -$$ -实现代码如下: - -```python -class DiceLoss(nn.Module): - def __init__(self,weight=None,size_average=True): - super(DiceLoss,self).__init__() - - def forward(self,inputs,targets,smooth=1): - inputs = F.sigmoid(inputs) - inputs = inputs.view(-1) - targets = targets.view(-1) - intersection = (inputs * targets).sum() - dice = (2.*intersection + smooth)/(inputs.sum() + targets.sum() + smooth) - return 1 - dice - -# 使用方法 -criterion = DiceLoss() -loss = criterion(input,targets) -``` - -除此之外,常见的损失函数还有BCE-Dice Loss,Jaccard/Intersection over Union (IoU) Loss,Focal Loss...... - -```python -class DiceBCELoss(nn.Module): - def __init__(self, weight=None, size_average=True): - super(DiceBCELoss, self).__init__() - - def forward(self, inputs, targets, smooth=1): - inputs = F.sigmoid(inputs) - inputs = inputs.view(-1) - targets = targets.view(-1) - intersection = (inputs * targets).sum() - dice_loss = 1 - (2.*intersection + smooth)/(inputs.sum() + targets.sum() + smooth) - BCE = F.binary_cross_entropy(inputs, targets, reduction='mean') - Dice_BCE = BCE + dice_loss - - return Dice_BCE -``` -```python -class IoULoss(nn.Module): - def __init__(self, weight=None, size_average=True): - super(IoULoss, self).__init__() - - def forward(self, inputs, targets, smooth=1): - inputs = F.sigmoid(inputs) - inputs = inputs.view(-1) - targets = targets.view(-1) - intersection = (inputs * targets).sum() - total = (inputs + targets).sum() - union = total - intersection - - IoU = (intersection + smooth)/(union + smooth) - - return 1 - IoU -``` -```python -ALPHA = 0.8 -GAMMA = 2 - -class FocalLoss(nn.Module): - def __init__(self, weight=None, size_average=True): - super(FocalLoss, self).__init__() - - def forward(self, inputs, targets, alpha=ALPHA, gamma=GAMMA, smooth=1): - inputs = F.sigmoid(inputs) - inputs = inputs.view(-1) - targets = targets.view(-1) - BCE = F.binary_cross_entropy(inputs, targets, reduction='mean') - BCE_EXP = torch.exp(-BCE) - focal_loss = alpha * (1-BCE_EXP)**gamma * BCE - - return focal_loss -# 更多的可以参考链接1 -``` - -**注:** - -在自定义损失函数时,涉及到数学运算时,我们最好全程使用PyTorch提供的张量计算接口,这样就不需要我们实现自动求导功能并且我们可以直接调用cuda,使用numpy或者scipy的数学运算时,操作会有些麻烦,大家可以自己下去进行探索。关于PyTorch使用Class定义损失函数的原因,可以参考PyTorch的讨论区(链接6) - - - - - -## 本节参考 - -【1】https://www.kaggle.com/bigironsphere/loss-function-library-keras-pytorch/notebook -【2】https://www.zhihu.com/question/66988664/answer/247952270 -【3】https://blog.csdn.net/dss_dssssd/article/details/84103834 -【4】https://zj-image-processing.readthedocs.io/zh_CN/latest/pytorch/%E8%87%AA%E5%AE%9A%E4%B9%89%E6%8D%9F%E5%A4%B1%E5%87%BD%E6%95%B0/ -【5】https://blog.csdn.net/qq_27825451/article/details/95165265 -【6】https://discuss.pytorch.org/t/should-i-define-my-custom-loss-function-as-a-class/89468 - diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.2 \345\212\250\346\200\201\350\260\203\346\225\264\345\255\246\344\271\240\347\216\207.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/6.2 \345\212\250\346\200\201\350\260\203\346\225\264\345\255\246\344\271\240\347\216\207.md.txt" deleted file mode 100644 index af667e02e..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.2 \345\212\250\346\200\201\350\260\203\346\225\264\345\255\246\344\271\240\347\216\207.md.txt" +++ /dev/null @@ -1,94 +0,0 @@ -# 6.2 动态调整学习率 - -学习率的选择是深度学习中一个困扰人们许久的问题,学习速率设置过小,会极大降低收敛速度,增加训练时间;学习率太大,可能导致参数在最优解两侧来回振荡。但是当我们选定了一个合适的学习率后,经过许多轮的训练后,可能会出现准确率震荡或loss不再下降等情况,说明当前学习率已不能满足模型调优的需求。此时我们就可以通过一个适当的学习率衰减策略来改善这种现象,提高我们的精度。这种设置方式在PyTorch中被称为scheduler,也是我们本节所研究的对象。 - -经过本节的学习,你将收获: - -- 如何根据需要选取已有的学习率调整策略 -- 如何自定义设置学习调整策略并实现 - - - -## 6.2.1 使用官方scheduler - -- **了解官方提供的API** - -在训练神经网络的过程中,学习率是最重要的超参数之一,作为当前较为流行的深度学习框架,PyTorch已经在`torch.optim.lr_scheduler`为我们封装好了一些动态调整学习率的方法供我们使用,如下面列出的这些scheduler。 - -+ [`lr_scheduler.LambdaLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.LambdaLR.html#torch.optim.lr_scheduler.LambdaLR) -+ [`lr_scheduler.MultiplicativeLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.MultiplicativeLR.html#torch.optim.lr_scheduler.MultiplicativeLR) -+ [`lr_scheduler.StepLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.StepLR.html#torch.optim.lr_scheduler.StepLR) -+ [`lr_scheduler.MultiStepLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.MultiStepLR.html#torch.optim.lr_scheduler.MultiStepLR) -+ [`lr_scheduler.ExponentialLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.ExponentialLR.html#torch.optim.lr_scheduler.ExponentialLR) -+ [`lr_scheduler.CosineAnnealingLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.CosineAnnealingLR.html#torch.optim.lr_scheduler.CosineAnnealingLR) -+ [`lr_scheduler.ReduceLROnPlateau`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.ReduceLROnPlateau.html#torch.optim.lr_scheduler.ReduceLROnPlateau) -+ [`lr_scheduler.CyclicLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.CyclicLR.html#torch.optim.lr_scheduler.CyclicLR) -+ [`lr_scheduler.OneCycleLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.OneCycleLR.html#torch.optim.lr_scheduler.OneCycleLR) -+ [`lr_scheduler.CosineAnnealingWarmRestarts`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.CosineAnnealingWarmRestarts.html#torch.optim.lr_scheduler.CosineAnnealingWarmRestarts) -+ [`lr_scheduler.ConstantLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.ConstantLR.html#torch.optim.lr_scheduler.ConstantLR) -+ [`lr_scheduler.LinearLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.LinearLR.html#torch.optim.lr_scheduler.LinearLR) -+ [`lr_scheduler.PolynomialLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.PolynomialLR.html#torch.optim.lr_scheduler.PolynomialLR) -+ [`lr_scheduler.ChainedScheduler`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.ChainedScheduler.html#torch.optim.lr_scheduler.ChainedScheduler) -+ [`lr_scheduler.SequentialLR`](https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.SequentialLR.html#torch.optim.lr_scheduler.SequentialLR) - -这些scheduler都是继承自`_LRScheduler`类,我们可以通过`help(torch.optim.lr_scheduler)`来查看这些类的具体使用方法,也可以通过`help(torch.optim.lr_scheduler._LRScheduler)`来查看`_LRScheduler`类的具体使用方法。 -- **使用官方API** - -关于如何使用这些动态调整学习率的策略,`PyTorch`官方也很人性化的给出了使用实例代码帮助大家理解,我们也将结合官方给出的代码来进行解释。 - -```python -# 选择一种优化器 -optimizer = torch.optim.Adam(...) -# 选择上面提到的一种或多种动态调整学习率的方法 -scheduler1 = torch.optim.lr_scheduler.... -scheduler2 = torch.optim.lr_scheduler.... -... -schedulern = torch.optim.lr_scheduler.... -# 进行训练 -for epoch in range(100): - train(...) - validate(...) - optimizer.step() - # 需要在优化器参数更新之后再动态调整学习率 -# scheduler的优化是在每一轮后面进行的 -scheduler1.step() -... -schedulern.step() -``` - -**注**: - -我们在使用官方给出的`torch.optim.lr_scheduler`时,需要将`scheduler.step()`放在`optimizer.step()`后面进行使用。 - - - -## 6.2.2 自定义scheduler - -虽然PyTorch官方给我们提供了许多的API,但是在实验中也有可能碰到需要我们自己定义学习率调整策略的情况,而我们的方法是自定义函数`adjust_learning_rate`来改变`param_group`中`lr`的值,在下面的叙述中会给出一个简单的实现。 - -假设我们现在正在做实验,需要学习率每30轮下降为原来的1/10,假设已有的官方API中没有符合我们需求的,那就需要自定义函数来实现学习率的改变。 - -```python -def adjust_learning_rate(optimizer, epoch): - lr = args.lr * (0.1 ** (epoch // 30)) - for param_group in optimizer.param_groups: - param_group['lr'] = lr -``` - -有了`adjust_learning_rate`函数的定义,在训练的过程就可以调用我们的函数来实现学习率的动态变化 - -```python -def adjust_learning_rate(optimizer,...): - ... -optimizer = torch.optim.SGD(model.parameters(),lr = args.lr,momentum = 0.9) -for epoch in range(10): - train(...) - validate(...) - adjust_learning_rate(optimizer,epoch) -``` - - - -## 本节参考 - -1. [PyTorch官方文档](https://pytorch.org/docs/stable/optim.html) diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.3 \346\250\241\345\236\213\345\276\256\350\260\203-timm.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/6.3 \346\250\241\345\236\213\345\276\256\350\260\203-timm.md.txt" deleted file mode 100644 index 20cce3ef7..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.3 \346\250\241\345\236\213\345\276\256\350\260\203-timm.md.txt" +++ /dev/null @@ -1,128 +0,0 @@ -# 6.3 模型微调 - timm -除了使用`torchvision.models`进行预训练以外,还有一个常见的预训练模型库,叫做`timm`,这个库是由Ross Wightman创建的。里面提供了许多计算机视觉的SOTA模型,可以当作是torchvision的扩充版本,并且里面的模型在准确度上也较高。在本章内容中,我们主要是针对这个库的预训练模型的使用做叙述,其他部分内容(数据扩增,优化器等)如果大家感兴趣,可以参考以下两个链接。 -- Github链接:https://github.com/rwightman/pytorch-image-models -- 官网链接:https://fastai.github.io/timmdocs/ - https://rwightman.github.io/pytorch-image-models/ - -## 6.3.1 timm的安装 -关于timm的安装,我们可以选择以下两种方式进行: -1. 通过pip安装 -```shell -pip install timm -``` -2. 通过源码编译安装 -```shell -git clone https://github.com/rwightman/pytorch-image-models -cd pytorch-image-models && pip install -e . -``` - -## 6.3.2 如何查看预训练模型种类 -1. 查看timm提供的预训练模型 -截止到2022.3.27日为止,timm提供的预训练模型已经达到了592个,我们可以通过`timm.list_models()`方法查看timm提供的预训练模型(注:本章测试代码均是在jupyter notebook上进行) -```python -import timm -avail_pretrained_models = timm.list_models(pretrained=True) -len(avail_pretrained_models) -``` - -```shell -592 -``` -2. 查看特定模型的所有种类 -每一种系列可能对应着不同方案的模型,比如Resnet系列就包括了ResNet18,50,101等模型,我们可以在`timm.list_models()`传入想查询的模型名称(模糊查询),比如我们想查询densenet系列的所有模型。 -```python -all_densnet_models = timm.list_models("*densenet*") -all_densnet_models -``` -我们发现以列表的形式返回了所有densenet系列的所有模型。 -```shell -['densenet121', - 'densenet121d', - 'densenet161', - 'densenet169', - 'densenet201', - 'densenet264', - 'densenet264d_iabn', - 'densenetblur121d', - 'tv_densenet121'] -``` -3. 查看模型的具体参数 -当我们想查看下模型的具体参数的时候,我们可以通过访问模型的`default_cfg`属性来进行查看,具体操作如下 -```python -model = timm.create_model('resnet34',num_classes=10,pretrained=True) -model.default_cfg -``` -```python -{'url': 'https://github.com/rwightman/pytorch-image-models/releases/download/v0.1-weights/resnet34-43635321.pth', - 'num_classes': 1000, - 'input_size': (3, 224, 224), - 'pool_size': (7, 7), - 'crop_pct': 0.875, - 'interpolation': 'bilinear', - 'mean': (0.485, 0.456, 0.406), - 'std': (0.229, 0.224, 0.225), - 'first_conv': 'conv1', - 'classifier': 'fc', - 'architecture': 'resnet34'} -``` -除此之外,我们可以通过访问这个[链接](https://rwightman.github.io/pytorch-image-models/results/) 查看提供的预训练模型的准确度等信息。 - -## 6.3.3 使用和修改预训练模型 -在得到我们想要使用的预训练模型后,我们可以通过`timm.create_model()`的方法来进行模型的创建,我们可以通过传入参数`pretrained=True`,来使用预训练模型。同样的,我们也可以使用跟torchvision里面的模型一样的方法查看模型的参数,类型/ -```python -import timm -import torch - -model = timm.create_model('resnet34',pretrained=True) -x = torch.randn(1,3,224,224) -output = model(x) -output.shape -``` - -```shell -torch.Size([1, 1000]) -``` -- 查看某一层模型参数(以第一层卷积为例) -```python -model = timm.create_model('resnet34',pretrained=True) -list(dict(model.named_children())['conv1'].parameters()) -``` -```python -[Parameter containing: - tensor([[[[-2.9398e-02, -3.6421e-02, -2.8832e-02, ..., -1.8349e-02, - -6.9210e-03, 1.2127e-02], - [-3.6199e-02, -6.0810e-02, -5.3891e-02, ..., -4.2744e-02, - -7.3169e-03, -1.1834e-02], - ... - [ 8.4563e-03, -1.7099e-02, -1.2176e-03, ..., 7.0081e-02, - 2.9756e-02, -4.1400e-03]]]], requires_grad=True)] - -``` -- 修改模型(将1000类改为10类输出) -```python -model = timm.create_model('resnet34',num_classes=10,pretrained=True) -x = torch.randn(1,3,224,224) -output = model(x) -output.shape -``` -```python -torch.Size([1, 10]) -``` -- 改变输入通道数(比如我们传入的图片是单通道的,但是模型需要的是三通道图片) -我们可以通过添加`in_chans=1`来改变 -```python -model = timm.create_model('resnet34',num_classes=10,pretrained=True,in_chans=1) -x = torch.randn(1,1,224,224) -output = model(x) -``` -## 6.3.4 模型的保存 -timm库所创建的模型是`torch.model`的子类,我们可以直接使用torch库中内置的模型参数保存和加载的方法,具体操作如下方代码所示 -```python -torch.save(model.state_dict(),'./checkpoint/timm_model.pth') -model.load_state_dict(torch.load('./checkpoint/timm_model.pth')) -``` - -## 参考材料 -1. https://www.aiuai.cn/aifarm1967.html -2. https://towardsdatascience.com/getting-started-with-pytorch-image-models-timm-a-practitioners-guide-4e77b4bf9055 -3. https://chowdera.com/2022/03/202203170834122729.html \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.3 \346\250\241\345\236\213\345\276\256\350\260\203-torchvision.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/6.3 \346\250\241\345\236\213\345\276\256\350\260\203-torchvision.md.txt" deleted file mode 100644 index cf1a68b2f..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.3 \346\250\241\345\236\213\345\276\256\350\260\203-torchvision.md.txt" +++ /dev/null @@ -1,125 +0,0 @@ -# 6.3 模型微调-torchvision - -随着深度学习的发展,模型的参数越来越大,许多开源模型都是在较大数据集上进行训练的,比如Imagenet-1k,Imagenet-11k,甚至是ImageNet-21k等。但在实际应用中,我们的数据集可能只有几千张,这时从头开始训练具有几千万参数的大型神经网络是不现实的,因为越大的模型对数据量的要求越大,过拟合无法避免。 - -假设我们想从图像中识别出不同种类的椅⼦,然后将购买链接推荐给用户。一种可能的方法是先找出100种常见的椅子,为每种椅子拍摄1000张不同⻆度的图像,然后在收集到的图像数据集上训练一个分类模型。这个椅子数据集虽然可能比Fashion-MNIST数据集要庞⼤,但样本数仍然不及ImageNet数据集中样本数的十分之⼀。这可能会导致适用于ImageNet数据集的复杂模型在这个椅⼦数据集上过拟合。同时,因为数据量有限,最终训练得到的模型的精度也可能达不到实用的要求。 - -为了应对上述问题,一个显⽽易⻅的解决办法是收集更多的数据。然而,收集和标注数据会花费大量的时间和资⾦。例如,为了收集ImageNet数据集,研究人员花费了数百万美元的研究经费。虽然目前的数据采集成本已降低了不少,但其成本仍然不可忽略。 - -另外一种解决办法是应用迁移学习(transfer learning),将从源数据集学到的知识迁移到目标数据集上。例如,虽然ImageNet数据集的图像大多跟椅子无关,但在该数据集上训练的模型可以抽取较通用的图像特征,从而能够帮助识别边缘、纹理、形状和物体组成等。这些类似的特征对于识别椅子也可能同样有效。 - -迁移学习的一大应用场景是模型微调(finetune)。简单来说,就是我们先找到一个同类的别人训练好的模型,把别人现成的训练好了的模型拿过来,换成自己的数据,通过训练调整一下参数。 在PyTorch中提供了许多预训练好的网络模型(VGG,ResNet系列,mobilenet系列......),这些模型都是PyTorch官方在相应的大型数据集训练好的。学习如何进行模型微调,可以方便我们快速使用预训练模型完成自己的任务。 - -经过本节的学习,你将收获: - -- 掌握模型微调的流程 -- 了解PyTorch提供的常用model -- 掌握如何指定训练模型的部分层 - - - -## 6.3.1 模型微调的流程 - -1. 在源数据集(如ImageNet数据集)上预训练一个神经网络模型,即源模型。 -2. 创建一个新的神经网络模型,即目标模型。它复制了源模型上除了输出层外的所有模型设计及其参数。我们假设这些模型参数包含了源数据集上学习到的知识,且这些知识同样适用于目标数据集。我们还假设源模型的输出层跟源数据集的标签紧密相关,因此在目标模型中不予采用。 -3. 为目标模型添加一个输出⼤小为⽬标数据集类别个数的输出层,并随机初始化该层的模型参数。 -4. 在目标数据集上训练目标模型。我们将从头训练输出层,而其余层的参数都是基于源模型的参数微调得到的。 - -![finetune](./figures/finetune.png) - - - -## 6.3.2 使用已有模型结构 - -这里我们以torchvision中的常见模型为例,列出了如何在图像分类任务中使用PyTorch提供的常见模型结构和参数。对于其他任务和网络结构,使用方式是类似的: - -- 实例化网络 - - ```python - import torchvision.models as models - resnet18 = models.resnet18() - # resnet18 = models.resnet18(pretrained=False) 等价于与上面的表达式 - alexnet = models.alexnet() - vgg16 = models.vgg16() - squeezenet = models.squeezenet1_0() - densenet = models.densenet161() - inception = models.inception_v3() - googlenet = models.googlenet() - shufflenet = models.shufflenet_v2_x1_0() - mobilenet_v2 = models.mobilenet_v2() - mobilenet_v3_large = models.mobilenet_v3_large() - mobilenet_v3_small = models.mobilenet_v3_small() - resnext50_32x4d = models.resnext50_32x4d() - wide_resnet50_2 = models.wide_resnet50_2() - mnasnet = models.mnasnet1_0() -- 传递`pretrained`参数 - -通过`True`或者`False`来决定是否使用预训练好的权重,在默认状态下`pretrained = False`,意味着我们不使用预训练得到的权重,当`pretrained = True`,意味着我们将使用在一些数据集上预训练得到的权重。 - - ```python -import torchvision.models as models -resnet18 = models.resnet18(pretrained=True) -alexnet = models.alexnet(pretrained=True) -squeezenet = models.squeezenet1_0(pretrained=True) -vgg16 = models.vgg16(pretrained=True) -densenet = models.densenet161(pretrained=True) -inception = models.inception_v3(pretrained=True) -googlenet = models.googlenet(pretrained=True) -shufflenet = models.shufflenet_v2_x1_0(pretrained=True) -mobilenet_v2 = models.mobilenet_v2(pretrained=True) -mobilenet_v3_large = models.mobilenet_v3_large(pretrained=True) -mobilenet_v3_small = models.mobilenet_v3_small(pretrained=True) -resnext50_32x4d = models.resnext50_32x4d(pretrained=True) -wide_resnet50_2 = models.wide_resnet50_2(pretrained=True) -mnasnet = models.mnasnet1_0(pretrained=True) - ``` - -**注意事项:** - -1. 通常PyTorch模型的扩展为`.pt`或`.pth`,程序运行时会首先检查默认路径中是否有已经下载的模型权重,一旦权重被下载,下次加载就不需要下载了。 - -2. 一般情况下预训练模型的下载会比较慢,我们可以直接通过迅雷或者其他方式去 [这里](https://github.com/pytorch/vision/tree/master/torchvision/models) 查看自己的模型里面`model_urls`,然后手动下载,预训练模型的权重在`Linux`和`Mac`的默认下载路径是用户根目录下的`.cache`文件夹。在`Windows`下就是`C:\Users\\.cache\torch\hub\checkpoint`。我们可以通过使用 [`torch.utils.model_zoo.load_url()`](https://pytorch.org/docs/stable/model_zoo.html#torch.utils.model_zoo.load_url)设置权重的下载地址。 - -3. 如果觉得麻烦,还可以将自己的权重下载下来放到同文件夹下,然后再将参数加载网络。 - - ```python - self.model = models.resnet50(pretrained=False) - self.model.load_state_dict(torch.load('./model/resnet50-19c8e357.pth')) - ``` - -4. 如果中途强行停止下载的话,一定要去对应路径下将权重文件删除干净,要不然可能会报错。 - - - -## 6.3.3 训练特定层 - -在默认情况下,参数的属性`.requires_grad = True`,如果我们从头开始训练或微调不需要注意这里。但如果我们正在提取特征并且只想为新初始化的层计算梯度,其他参数不进行改变。那我们就需要通过设置`requires_grad = False`来冻结部分层。在PyTorch官方中提供了这样一个例程。 - -```python -def set_parameter_requires_grad(model, feature_extracting): - if feature_extracting: - for param in model.parameters(): - param.requires_grad = False -``` - -在下面我们仍旧使用`resnet18`为例的将1000类改为4类,但是仅改变最后一层的模型参数,不改变特征提取的模型参数;注意我们先冻结模型参数的梯度,再对模型输出部分的全连接层进行修改,这样修改后的全连接层的参数就是可计算梯度的。 - -```python -import torchvision.models as models -# 冻结参数的梯度 -feature_extract = True -model = models.resnet18(pretrained=True) -set_parameter_requires_grad(model, feature_extract) -# 修改模型 -num_ftrs = model.fc.in_features -model.fc = nn.Linear(in_features=num_ftrs, out_features=4, bias=True) -``` - -之后在训练过程中,model仍会进行梯度回传,但是参数更新则只会发生在fc层。通过设定参数的requires_grad属性,我们完成了指定训练模型的特定层的目标,这对实现模型微调非常重要。 - - - -## 本节参考 - -1. [参数更新](https://www.pytorchtutorial.com/docs/package_references/torch-optim/) -2. [给不同层分配不同的学习率](https://blog.csdn.net/jdzwanghao/article/details/90402577) diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.4 \345\215\212\347\262\276\345\272\246\350\256\255\347\273\203.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/6.4 \345\215\212\347\262\276\345\272\246\350\256\255\347\273\203.md.txt" deleted file mode 100644 index a97931ad8..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.4 \345\215\212\347\262\276\345\272\246\350\256\255\347\273\203.md.txt" +++ /dev/null @@ -1,53 +0,0 @@ -# 6.4 半精度训练 - -我们提到PyTorch时候,总会想到要用硬件设备GPU的支持。而GPU的性能主要分为两部分:算力和显存,前者决定了显卡计算的速度,后者则决定了显卡可以同时放入多少数据用于计算。在可以使用的显存数量一定的情况下,每次训练能够加载的数据更多(也就是batch size更大),则也可以提高训练效率。另外,有时候数据本身也比较大(比如3D图像、视频等),显存较小的情况下可能甚至batch size为1的情况都无法实现。因此,合理使用显存也就显得十分重要。 - -我们观察PyTorch默认的浮点数存储方式用的是`torch.float32`,小数点后位数更多固然能保证数据的精确性,但绝大多数场景其实并不需要这么精确,只保留一半的信息也不会影响结果,也就是使用`torch.float16`格式。由于数位减了一半,因此被称为“半精度”,具体如下图: - -![amp](./figures/float16.jpg) - -显然半精度能够减少显存占用,使得显卡可以同时加载更多数据进行计算。本节会介绍如何在PyTorch中设置使用半精度计算。 - -经过本节的学习,你将收获: - -- 如何在PyTorch中设置半精度训练 -- 使用半精度训练的注意事项 - - -## 6.4.1 半精度训练的设置 - -在PyTorch中使用autocast配置半精度训练,同时需要在下面三处加以设置: - -- **import autocast** - -```python -from torch.cuda.amp import autocast -``` - -- **模型设置** - -在模型定义中,使用python的装饰器方法,用autocast装饰模型中的forward函数。关于装饰器的使用,可以参考[这里](https://www.cnblogs.com/jfdwd/p/11253925.html): - -```python -@autocast() -def forward(self, x): - ... - return x -``` - -- **训练过程** - -在训练过程中,只需在将数据输入模型及其之后的部分放入“with autocast():“即可: - -```python - for x in train_loader: - x = x.cuda() - with autocast(): - output = model(x) - ... -``` - -**注意:** - -半精度训练主要适用于数据本身的size比较大(比如说3D图像、视频等)。当数据本身的size并不大时(比如手写数字MNIST数据集的图片尺寸只有28*28),使用半精度训练则可能不会带来显著的提升。 - diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.5 \346\225\260\346\215\256\345\242\236\345\274\272-imgaug.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/6.5 \346\225\260\346\215\256\345\242\236\345\274\272-imgaug.md.txt" deleted file mode 100644 index 3d177359f..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.5 \346\225\260\346\215\256\345\242\236\345\274\272-imgaug.md.txt" +++ /dev/null @@ -1,220 +0,0 @@ -# 6.5 数据增强-imgaug -在机器学习/深度学习中,我们经常会遇到模型过拟合的问题,为了解决过拟合问题,我们可以通过加入正则项或者减少模型学习参数来解决,但是最简单的避免过拟合的方法是增加数据,但是在许多场景我们无法获得大量数据,例如医学图像分析。数据增强技术的存在是为了解决这个问题,这是针对有限数据问题的解决方案。数据增强一套技术,可提高训练数据集的大小和质量,以便我们可以使用它们来构建更好的深度学习模型。 -在计算视觉领域,生成增强图像相对容易。即使引入噪声或裁剪图像的一部分,模型仍可以对图像进行分类,数据增强有一系列简单有效的方法可供选择,有一些机器学习库来进行计算视觉领域的数据增强,比如:imgaug [官网](https://github.com/aleju/imgaug)它封装了很多数据增强算法,给开发者提供了方便。通过本章内容,您将学会以下内容: -- imgaug的简介和安装 -- 使用imgaug对数据进行增强 - -## 6.5.1 imgaug简介和安装 -### 6.5.1.1 imgaug简介 -`imgaug`是计算机视觉任务中常用的一个数据增强的包,相比于`torchvision.transforms`,它提供了更多的数据增强方法,因此在各种竞赛中,人们广泛使用`imgaug`来对数据进行增强操作。除此之外,imgaug官方还提供了许多例程让我们学习,本章内容仅是简介,希望起到抛砖引玉的功能。 -1. Github地址:[imgaug](https://github.com/aleju/imgaug) -2. Readthedocs:[imgaug](https://imgaug.readthedocs.io/en/latest/source/examples_basics.html) -3. 官方提供notebook例程:[notebook](https://github.com/aleju/imgaug-doc/tree/master/notebooks) -### 6.5.1.2 imgaug的安装 -imgaug的安装方法和其他的Python包类似,我们可以通过以下两种方式进行安装 -#### conda -```shell -conda config --add channels conda-forge -conda install imgaug -``` -#### pip -```shell -# install imgaug either via pypi - -pip install imgaug - -# install the latest version directly from github - -pip install git+https://github.com/aleju/imgaug.git -``` -## 6.5.2 imgaug的使用 -imgaug仅仅提供了图像增强的一些方法,但是并未提供图像的IO操作,因此我们需要使用一些库来对图像进行导入,建议使用imageio进行读入,如果使用的是opencv进行文件读取的时候,需要进行手动改变通道,将读取的BGR图像转换为RGB图像。除此以外,当我们用PIL.Image进行读取时,因为读取的图片没有shape的属性,所以我们需要将读取到的img转换为np.array()的形式再进行处理。因此官方的例程中也是使用imageio进行图片读取。 -### 单张图片处理 -在该单元,我们仅以几种数据增强操作为例,主要目的是教会大家如何使用imgaug来对数据进行增强操作。 -```python -import imageio -import imgaug as ia -%matplotlib inline - -# 图片的读取 -img = imageio.imread("./Lenna.jpg") - -# 使用Image进行读取 -# img = Image.open("./Lenna.jpg") -# image = np.array(img) -# ia.imshow(image) - -# 可视化图片 -ia.imshow(img) -``` -![](./figures/Lenna_original.png) - -现在我们已经得到了需要处理的图片,`imgaug`包含了许多从`Augmenter`继承的数据增强的操作。在这里我们以`Affine`为例子。 -```python -from imgaug import augmenters as iaa - -# 设置随机数种子 -ia.seed(4) - -# 实例化方法 -rotate = iaa.Affine(rotate=(-4,45)) -img_aug = rotate(image=img) -ia.imshow(img_aug) -``` -![](./figures/rotate.png) - -这是对一张图片进行一种操作方式,但实际情况下,我们可能对一张图片做多种数据增强处理。这种情况下,我们就需要利用`imgaug.augmenters.Sequential()`来构造我们数据增强的pipline,该方法与`torchvison.transforms.Compose()`相类似。 -```python -iaa.Sequential(children=None, # Augmenter集合 - random_order=False, # 是否对每个batch使用不同顺序的Augmenter list - name=None, - deterministic=False, - random_state=None) -``` - -```python -# 构建处理序列 -aug_seq = iaa.Sequential([ - iaa.Affine(rotate=(-25,25)), - iaa.AdditiveGaussianNoise(scale=(10,60)), - iaa.Crop(percent=(0,0.2)) -]) -# 对图片进行处理,image不可以省略,也不能写成images -image_aug = aug_seq(image=img) -ia.imshow(image_aug) -``` -![](./figures/aug_seq.png) - -总的来说,对单张图片处理的方式基本相同,我们可以根据实际需求,选择合适的数据增强方法来对数据进行处理。 -### 对批次图片进行处理 -在实际使用中,我们通常需要处理更多份的图像数据。此时,可以将图形数据按照NHWC的形式或者由列表组成的HWC的形式对批量的图像进行处理。主要分为以下两部分,对批次的图片以同一种方式处理和对批次的图片进行分部分处理。 -#### 对批次的图片以同一种方式处理 -对一批次的图片进行处理时,我们只需要将待处理的图片放在一个`list`中,并将函数的image改为images即可进行数据增强操作,具体实际操作如下: -```python -images = [img,img,img,img,] -images_aug = rotate(images=images) -ia.imshow(np.hstack(images_aug)) -``` -我们就可以得到如下的展示效果: - -![](./figures/image_batch.png) -在上述的例子中,我们仅仅对图片进行了仿射变换,同样的,我们也可以对批次的图片使用多种增强方法,与单张图片的方法类似,我们同样需要借助`Sequential`来构造数据增强的pipline。 -```python -aug_seq = iaa.Sequential([ - iaa.Affine(rotate=(-25, 25)), - iaa.AdditiveGaussianNoise(scale=(10, 60)), - iaa.Crop(percent=(0, 0.2)) -]) - -# 传入时需要指明是images参数 -images_aug = aug_seq.augment_images(images = images) -#images_aug = aug_seq(images = images) -ia.imshow(np.hstack(images_aug)) -``` -#### 对批次的图片分部分处理 -imgaug相较于其他的数据增强的库,有一个很有意思的特性,即就是我们可以通过`imgaug.augmenters.Sometimes()`对batch中的一部分图片应用一部分Augmenters,剩下的图片应用另外的Augmenters。 -```python -iaa.Sometimes(p=0.5, # 代表划分比例 - then_list=None, # Augmenter集合。p概率的图片进行变换的Augmenters。 - else_list=None, #1-p概率的图片会被进行变换的Augmenters。注意变换的图片应用的Augmenter只能是then_list或者else_list中的一个。 - name=None, - deterministic=False, - random_state=None) -``` - -### 对不同大小的图片进行处理 -上面提到的图片都是基于相同的图像。以下的示例具有不同图像大小的情况,我们从维基百科加载三张图片,将它们作为一个批次进行扩充,然后一张一张地显示每张图片。具体的操作跟单张的图片都是十分相似,因此不做过多赘述。 -```python -# 构建pipline -seq = iaa.Sequential([ - iaa.CropAndPad(percent=(-0.2, 0.2), pad_mode="edge"), # crop and pad images - iaa.AddToHueAndSaturation((-60, 60)), # change their color - iaa.ElasticTransformation(alpha=90, sigma=9), # water-like effect - iaa.Cutout() # replace one squared area within the image by a constant intensity value -], random_order=True) - -# 加载不同大小的图片 -images_different_sizes = [ - imageio.imread("https://upload.wikimedia.org/wikipedia/commons/e/ed/BRACHYLAGUS_IDAHOENSIS.jpg"), - imageio.imread("https://upload.wikimedia.org/wikipedia/commons/c/c9/Southern_swamp_rabbit_baby.jpg"), - imageio.imread("https://upload.wikimedia.org/wikipedia/commons/9/9f/Lower_Keys_marsh_rabbit.jpg") -] - -# 对图片进行增强 -images_aug = seq(images=images_different_sizes) - -# 可视化结果 -print("Image 0 (input shape: %s, output shape: %s)" % (images_different_sizes[0].shape, images_aug[0].shape)) -ia.imshow(np.hstack([images_different_sizes[0], images_aug[0]])) - -print("Image 1 (input shape: %s, output shape: %s)" % (images_different_sizes[1].shape, images_aug[1].shape)) -ia.imshow(np.hstack([images_different_sizes[1], images_aug[1]])) - -print("Image 2 (input shape: %s, output shape: %s)" % (images_different_sizes[2].shape, images_aug[2].shape)) -ia.imshow(np.hstack([images_different_sizes[2], images_aug[2]])) -``` -![different_size.png](./figures/different_size.png) -## 6.5.3 imgaug在PyTorch的应用 -关于PyTorch中如何使用imgaug每一个人的模板是不一样的,我在这里也仅仅给出imgaug的issue里面提出的一种解决方案,大家可以根据自己的实际需求进行改变。 -具体链接:[how to use imgaug with pytorch](https://github.com/aleju/imgaug/issues/406) -```python -import numpy as np -from imgaug import augmenters as iaa -from torch.utils.data import DataLoader, Dataset -from torchvision import transforms - -# 构建pipline -tfs = transforms.Compose([ - iaa.Sequential([ - iaa.flip.Fliplr(p=0.5), - iaa.flip.Flipud(p=0.5), - iaa.GaussianBlur(sigma=(0.0, 0.1)), - iaa.MultiplyBrightness(mul=(0.65, 1.35)), - ]).augment_image, - # 不要忘记了使用ToTensor() - transforms.ToTensor() -]) - -# 自定义数据集 -class CustomDataset(Dataset): - def __init__(self, n_images, n_classes, transform=None): - # 图片的读取,建议使用imageio - self.images = np.random.randint(0, 255, - (n_images, 224, 224, 3), - dtype=np.uint8) - self.targets = np.random.randn(n_images, n_classes) - self.transform = transform - - def __getitem__(self, item): - image = self.images[item] - target = self.targets[item] - - if self.transform: - image = self.transform(image) - - return image, target - - def __len__(self): - return len(self.images) - - -def worker_init_fn(worker_id): - imgaug.seed(np.random.get_state()[1][0] + worker_id) - - -custom_ds = CustomDataset(n_images=50, n_classes=10, transform=tfs) -custom_dl = DataLoader(custom_ds, batch_size=64, - num_workers=4, pin_memory=True, - worker_init_fn=worker_init_fn) - -``` -关于num_workers在Windows系统上只能设置成0,但是当我们使用Linux远程服务器时,可能使用不同的num_workers的数量,这是我们就需要注意worker_init_fn()函数的作用了。它保证了我们使用的数据增强在num_workers>0时是对数据的增强是随机的。 -## 6.5.4 总结 -数据扩充是我们需要掌握的基本技能,除了imgaug以外,我们还可以去学习其他的数据增强库,包括但不局限于Albumentations,Augmentor。除去imgaug以外,我还强烈建议大家学下Albumentations,因为Albumentations跟imgaug都有着丰富的教程资源,大家可以有需求访问[Albumentations教程](https://albumentations.ai/docs/examples/pytorch_classification/)。 - -## 参考资料 -1. [kaggle-data-augmentation-packages-overview](https://www.kaggle.com/code/aleksandradeis/data-augmentation-packages-overview/notebook) -2. [how to use imgaug with pytorch](https://github.com/aleju/imgaug/issues/406) -3. [Kaggle知识点:数据扩增方法](https://mp.weixin.qq.com/s/tdNlCxmz_s1Wwls2qoQXDQ) -4. [PyTorch Classification Model Based On Imgaug.](https://www.kaggle.com/code/jmcslk/pytorch-classification-model-based-on-imgaug/notebook) -5. [Tutorial Notebooks](https://github.com/aleju/imgaug-doc/tree/master/notebooks) \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.6 \344\275\277\347\224\250argparse\350\277\233\350\241\214\350\260\203\345\217\202.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/6.6 \344\275\277\347\224\250argparse\350\277\233\350\241\214\350\260\203\345\217\202.md.txt" deleted file mode 100644 index 4b249df37..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.6 \344\275\277\347\224\250argparse\350\277\233\350\241\214\350\260\203\345\217\202.md.txt" +++ /dev/null @@ -1,155 +0,0 @@ -# 6.6 使用argparse进行调参 -在深度学习中时,超参数的修改和保存是非常重要的一步,尤其是当我们在服务器上跑我们的模型时,如何更方便的修改超参数是我们需要考虑的一个问题。这时候,要是有一个库或者函数可以解析我们输入的命令行参数再传入模型的超参数中该多好。到底有没有这样的一种方法呢?答案是肯定的,这个就是 Python 标准库的一部分:Argparse。那么下面让我们看看他是多么方便。通过本节课,您将会收获以下内容 -- argparse的简介 -- argparse的使用 -- 如何使用argparse修改超参数 -## 6.6.1 argparse简介 -argsparse是python的命令行解析的标准模块,内置于python,不需要安装。这个库可以让我们直接在命令行中就可以向程序中传入参数。我们可以使用`python file.py`来运行python文件。而argparse的作用就是将命令行传入的其他参数进行解析、保存和使用。在使用argparse后,我们在命令行输入的参数就可以以这种形式`python file.py --lr 1e-4 --batch_size 32`来完成对常见超参数的设置。 - -## 6.6.2 argparse的使用 -总的来说,我们可以将argparse的使用归纳为以下三个步骤。 -- 创建`ArgumentParser()`对象 -- 调用`add_argument()`方法添加参数 -- 使用`parse_args()`解析参数 -在接下来的内容中,我们将以实际操作来学习argparse的使用方法。 -```python -# demo.py -import argparse - -# 创建ArgumentParser()对象 -parser = argparse.ArgumentParser() - -# 添加参数 -parser.add_argument('-o', '--output', action='store_true', - help="shows output") -# action = `store_true` 会将output参数记录为True -# type 规定了参数的格式 -# default 规定了默认值 -parser.add_argument('--lr', type=float, default=3e-5, help='select the learning rate, default=1e-3') - -parser.add_argument('--batch_size', type=int, required=True, help='input batch size') -# 使用parse_args()解析函数 -args = parser.parse_args() - -if args.output: - print("This is some output") - print(f"learning rate:{args.lr} ") - -``` -我们在命令行使用`python demo.py --lr 3e-4 --batch_size 32`,就可以看到以下的输出 -```bash -This is some output -learning rate: 3e-4 -``` -argparse的参数主要可以分为可选参数和必选参数。可选参数就跟我们的`lr`参数相类似,未输入的情况下会设置为默认值。必选参数就跟我们的`batch_size`参数相类似,当我们给参数设置`required =True`后,我们就必须传入该参数,否则就会报错。看到我们的输入格式后,我们可能会有这样一个疑问,我输入参数的时候不使用--可以吗?答案是肯定的,不过我们需要在设置上做出一些改变。 -```python -# positional.py -import argparse - -# 位置参数 -parser = argparse.ArgumentParser() - -parser.add_argument('name') -parser.add_argument('age') - -args = parser.parse_args() - -print(f'{args.name} is {args.age} years old') -``` -当我们不实用--后,将会严格按照参数位置进行解析。 -```shell -$ positional_arg.py Peter 23 -Peter is 23 years old -``` -总的来说,argparse的使用很简单,以上这些操作就可以帮助我们进行参数的修改,在下面的部分,我将会分享我是如何在模型训练中使用argparse进行超参数的修改。 -## 6.6.3 更加高效使用argparse修改超参数 -每个人都有着不同的超参数管理方式,在这里我将分享我使用argparse管理超参数的方式,希望可以对大家有一些借鉴意义。通常情况下,为了使代码更加简洁和模块化,我一般会将有关超参数的操作写在`config.py`,然后在`train.py`或者其他文件导入就可以。具体的`config.py`可以参考如下内容。 -```python -import argparse - -def get_options(parser=argparse.ArgumentParser()): - - parser.add_argument('--workers', type=int, default=0, - help='number of data loading workers, you had better put it ' - '4 times of your gpu') - - parser.add_argument('--batch_size', type=int, default=4, help='input batch size, default=64') - - parser.add_argument('--niter', type=int, default=10, help='number of epochs to train for, default=10') - - parser.add_argument('--lr', type=float, default=3e-5, help='select the learning rate, default=1e-3') - - parser.add_argument('--seed', type=int, default=118, help="random seed") - - parser.add_argument('--cuda', action='store_true', default=True, help='enables cuda') - parser.add_argument('--checkpoint_path',type=str,default='', - help='Path to load a previous trained model if not empty (default empty)') - parser.add_argument('--output',action='store_true',default=True,help="shows output") - - opt = parser.parse_args() - - if opt.output: - print(f'num_workers: {opt.workers}') - print(f'batch_size: {opt.batch_size}') - print(f'epochs (niters) : {opt.niter}') - print(f'learning rate : {opt.lr}') - print(f'manual_seed: {opt.seed}') - print(f'cuda enable: {opt.cuda}') - print(f'checkpoint_path: {opt.checkpoint_path}') - - return opt - -if __name__ == '__main__': - opt = get_options() -``` - -```shell -$ python config.py - -num_workers: 0 -batch_size: 4 -epochs (niters) : 10 -learning rate : 3e-05 -manual_seed: 118 -cuda enable: True -checkpoint_path: -``` - -随后在`train.py`等其他文件,我们就可以使用下面的这样的结构来调用参数。 -```python -# 导入必要库 -... -import config - -opt = config.get_options() - -manual_seed = opt.seed -num_workers = opt.workers -batch_size = opt.batch_size -lr = opt.lr -niters = opt.niters -checkpoint_path = opt.checkpoint_path - -# 随机数的设置,保证复现结果 -def set_seed(seed): - torch.manual_seed(seed) - torch.cuda.manual_seed_all(seed) - random.seed(seed) - np.random.seed(seed) - torch.backends.cudnn.benchmark = False - torch.backends.cudnn.deterministic = True - -... - - -if __name__ == '__main__': - set_seed(manual_seed) - for epoch in range(niters): - train(model,lr,batch_size,num_workers,checkpoint_path) - val(model,lr,batch_size,num_workers,checkpoint_path) - -``` -## 总结 -argparse给我们提供了一种新的更加便捷的方式,而在一些大型的深度学习库中人们也会使用json、dict、yaml等文件格式去保存超参数进行训练。如果大家还想进一步的了解argparse的使用,大家可以点击下面提供的连接进行更深的学习和了解。 -1. [Python argparse 教程](https://geek-docs.com/python/python-tutorial/python-argparse.html) -2. [argparse 官方教程](https://docs.python.org/3/library/argparse.html) \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.7 PyTorch\346\250\241\345\236\213\345\256\232\344\271\211\344\270\216\350\277\233\351\230\266\350\256\255\347\273\203\346\212\200\345\267\247.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/6.7 PyTorch\346\250\241\345\236\213\345\256\232\344\271\211\344\270\216\350\277\233\351\230\266\350\256\255\347\273\203\346\212\200\345\267\247.md.txt" deleted file mode 100644 index 65def72c9..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/6.7 PyTorch\346\250\241\345\236\213\345\256\232\344\271\211\344\270\216\350\277\233\351\230\266\350\256\255\347\273\203\346\212\200\345\267\247.md.txt" +++ /dev/null @@ -1,22051 +0,0 @@ -# PyTorch模型定义与进阶训练技巧 -notebook配套教程第五章和第六章,将结合U-Net模型来探索PyTorch的模型定义方式和进阶训练技巧。 -下方每个“Point”对应于教程中每一节的内容。 - - -```python -import os -import numpy as np -import collections -import torch -import torch.nn as nn -import torch.nn.functional as F -import torchvision -``` - -**Point 1:模型定义方式** -PyTorch中自定义模型主要通过以下三种方式: -- Sequential -- ModuleList -- ModuleDict - - -```python -## 讲解点:使用ordered dict更有助于一目了然模型结构,对于之后模型修改也非常有帮助 -``` - - -```python -## Sequential: Direct list -import torch.nn as nn -net1 = nn.Sequential( - nn.Linear(784, 256), - nn.ReLU(), - nn.Linear(256, 10), - ) -print(net1) -``` - - Sequential( - (0): Linear(in_features=784, out_features=256, bias=True) - (1): ReLU() - (2): Linear(in_features=256, out_features=10, bias=True) - ) - - - -```python -## Sequential: Ordered Dict -import collections -import torch.nn as nn -net2 = nn.Sequential(collections.OrderedDict([ - ('fc1', nn.Linear(784, 256)), - ('relu1', nn.ReLU()), - ('fc2', nn.Linear(256, 10)) - ])) -print(net2) -``` - - Sequential( - (fc1): Linear(in_features=784, out_features=256, bias=True) - (relu1): ReLU() - (fc2): Linear(in_features=256, out_features=10, bias=True) - ) - - - -```python -# 试一下 -a = torch.rand(4,784) -out1 = net1(a) -out2 = net2(a) -print(out1.shape==out2.shape, out1.shape) -``` - - True torch.Size([4, 10]) - - - -```python -## ModuleList -net3 = nn.ModuleList([nn.Linear(784, 256), nn.ReLU()]) -net3.append(nn.Linear(256, 10)) # # 类似List的append操作 -print(net3[-1]) # 类似List的索引访问 -print(net3) -``` - - Linear(in_features=256, out_features=10, bias=True) - ModuleList( - (0): Linear(in_features=784, out_features=256, bias=True) - (1): ReLU() - (2): Linear(in_features=256, out_features=10, bias=True) - ) - - - -```python -# 注意ModuleList 并没有定义一个网络,它只是将不同的模块储存在一起。此处应报错 -out3 = net3(a) -``` - - - --------------------------------------------------------------------------- - - NotImplementedError Traceback (most recent call last) - - in - 1 # 注意ModuleList 并没有定义一个网络,它只是将不同的模块储存在一起。此处应报错 - ----> 2 out3 = net3(a) - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/nn/modules/module.py in _call_impl(self, *input, **kwargs) - 1100 if not (self._backward_hooks or self._forward_hooks or self._forward_pre_hooks or _global_backward_hooks - 1101 or _global_forward_hooks or _global_forward_pre_hooks): - -> 1102 return forward_call(*input, **kwargs) - 1103 # Do not call functions when jit is used - 1104 full_backward_hooks, non_full_backward_hooks = [], [] - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/nn/modules/module.py in _forward_unimplemented(self, *input) - 199 registered hooks while the latter silently ignores them. - 200 """ - --> 201 raise NotImplementedError - 202 - 203 - - - NotImplementedError: - - - -```python -class Net3(nn.Module): - def __init__(self): - super().__init__() - self.modulelist = nn.ModuleList([nn.Linear(784, 256), nn.ReLU()]) - self.modulelist.append(nn.Linear(256, 10)) - - def forward(self, x): - for layer in self.modulelist: - x = layer(x) - return x -net3_ = Net3() -out3_ = net3_(a) -print(out3_.shape) -``` - - torch.Size([4, 10]) - - - -```python -## ModuleDict -net4 = nn.ModuleDict({ - 'linear': nn.Linear(784, 256), - 'act': nn.ReLU(), -}) -net4['output'] = nn.Linear(256, 10) # 添加 -print(net4['linear']) # 访问 -print(net4.output) -``` - - Linear(in_features=784, out_features=256, bias=True) - Linear(in_features=256, out_features=10, bias=True) - - - -```python -# 同样地,ModuleDict并没有定义一个网络,它只是将不同的模块储存在一起。此处应报错。 -# 正确使用方式同上 -out4 = net4(a) -``` - - - --------------------------------------------------------------------------- - - NotImplementedError Traceback (most recent call last) - - in - 1 # 同样地,ModuleDict并没有定义一个网络,它只是将不同的模块储存在一起。此处应报错。 - 2 # 正确使用方式同上 - ----> 3 out4 = net4(a) - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/nn/modules/module.py in _call_impl(self, *input, **kwargs) - 1100 if not (self._backward_hooks or self._forward_hooks or self._forward_pre_hooks or _global_backward_hooks - 1101 or _global_forward_hooks or _global_forward_pre_hooks): - -> 1102 return forward_call(*input, **kwargs) - 1103 # Do not call functions when jit is used - 1104 full_backward_hooks, non_full_backward_hooks = [], [] - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/nn/modules/module.py in _forward_unimplemented(self, *input) - 199 registered hooks while the latter silently ignores them. - 200 """ - --> 201 raise NotImplementedError - 202 - 203 - - - NotImplementedError: - - - -```python - -``` - -**Point 2:利用模型块快速搭建复杂网络** -下面我们开始探索如何利用模型块,快速构建U-Net网络 -组成U-Net的模型块主要有如下几个部分: -1)每个子块内部的两次卷积(Double Convolution) -2)左侧模型块之间的下采样连接,即最大池化(Max pooling) -3)右侧模型块之间的上采样连接(Up sampling) -4)输出层的处理 - -除模型块外,还有模型块之间的横向连接,输入和U-Net底部的连接等计算,这些单独的操作可以通过forward函数来实现。 -(参考:https://github.com/milesial/Pytorch-UNet ) - - -```python -import os -import numpy as np -import collections -import torch -import torch.nn as nn -import torch.nn.functional as F -import torchvision -``` - - -```python -class DoubleConv(nn.Module): - """(convolution => [BN] => ReLU) * 2""" - - def __init__(self, in_channels, out_channels, mid_channels=None): - super().__init__() - if not mid_channels: - mid_channels = out_channels - self.double_conv = nn.Sequential( - nn.Conv2d(in_channels, mid_channels, kernel_size=3, padding=1, bias=False), - nn.BatchNorm2d(mid_channels), - nn.ReLU(inplace=True), - nn.Conv2d(mid_channels, out_channels, kernel_size=3, padding=1, bias=False), - nn.BatchNorm2d(out_channels), - nn.ReLU(inplace=True) - ) - - def forward(self, x): - return self.double_conv(x) - -``` - - -```python -class Down(nn.Module): - """Downscaling with maxpool then double conv""" - - def __init__(self, in_channels, out_channels): - super().__init__() - self.maxpool_conv = nn.Sequential( - nn.MaxPool2d(2), - DoubleConv(in_channels, out_channels) - ) - - def forward(self, x): - return self.maxpool_conv(x) - -``` - - -```python -class Up(nn.Module): - """Upscaling then double conv""" - - def __init__(self, in_channels, out_channels, bilinear=True): - super().__init__() - - # if bilinear, use the normal convolutions to reduce the number of channels - if bilinear: - self.up = nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True) - self.conv = DoubleConv(in_channels, out_channels, in_channels // 2) - else: - self.up = nn.ConvTranspose2d(in_channels, in_channels // 2, kernel_size=2, stride=2) - self.conv = DoubleConv(in_channels, out_channels) - - def forward(self, x1, x2): - x1 = self.up(x1) - # input is CHW - diffY = x2.size()[2] - x1.size()[2] - diffX = x2.size()[3] - x1.size()[3] - - x1 = F.pad(x1, [diffX // 2, diffX - diffX // 2, - diffY // 2, diffY - diffY // 2]) - # if you have padding issues, see - # https://github.com/HaiyongJiang/U-Net-Pytorch-Unstructured-Buggy/commit/0e854509c2cea854e247a9c615f175f76fbb2e3a - # https://github.com/xiaopeng-liao/Pytorch-UNet/commit/8ebac70e633bac59fc22bb5195e513d5832fb3bd - x = torch.cat([x2, x1], dim=1) - return self.conv(x) -``` - - -```python -class OutConv(nn.Module): - def __init__(self, in_channels, out_channels): - super(OutConv, self).__init__() - self.conv = nn.Conv2d(in_channels, out_channels, kernel_size=1) - - def forward(self, x): - return self.conv(x) -``` - - -```python -## 组装 -class UNet(nn.Module): - def __init__(self, n_channels, n_classes, bilinear=True): - super(UNet, self).__init__() - self.n_channels = n_channels - self.n_classes = n_classes - self.bilinear = bilinear - - self.inc = DoubleConv(n_channels, 64) - self.down1 = Down(64, 128) - self.down2 = Down(128, 256) - self.down3 = Down(256, 512) - factor = 2 if bilinear else 1 - self.down4 = Down(512, 1024 // factor) - self.up1 = Up(1024, 512 // factor, bilinear) - self.up2 = Up(512, 256 // factor, bilinear) - self.up3 = Up(256, 128 // factor, bilinear) - self.up4 = Up(128, 64, bilinear) - self.outc = OutConv(64, n_classes) - - def forward(self, x): - x1 = self.inc(x) - x2 = self.down1(x1) - x3 = self.down2(x2) - x4 = self.down3(x3) - x5 = self.down4(x4) - x = self.up1(x5, x4) - x = self.up2(x, x3) - x = self.up3(x, x2) - x = self.up4(x, x1) - logits = self.outc(x) - return logits -``` - - -```python -unet = UNet(3,1) -unet -``` - - - - - UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - - - - -```python - -``` - -**Point 3:模型修改** -这里我们假设最后的分割是多类别的(即mask不止0和1,还有2,3,4等值代表其他目标),需要对模型特定层进行修改。 -此外还有两种情况的模型修改方式,这里也做演示: -- 添加额外输入 -- 添加额外输出 - - -```python -## 修改特定层 -import copy -unet1 = copy.deepcopy(unet) -unet1.outc -``` - - - - - OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - - - - -```python -b = torch.rand(1,3,224,224) -out_unet1 = unet1(b) -print(out_unet1.shape) -``` - - torch.Size([1, 1, 224, 224]) - - - -```python -unet1.outc = OutConv(64, 5) -unet1.outc -``` - - - - - OutConv( - (conv): Conv2d(64, 5, kernel_size=(1, 1), stride=(1, 1)) - ) - - - - -```python -out_unet1 = unet1(b) -print(out_unet1.shape) -``` - - torch.Size([1, 5, 224, 224]) - - - -```python -## 添加额外输入 -class UNet2(nn.Module): - def __init__(self, n_channels, n_classes, bilinear=True): - super(UNet2, self).__init__() - self.n_channels = n_channels - self.n_classes = n_classes - self.bilinear = bilinear - - self.inc = DoubleConv(n_channels, 64) - self.down1 = Down(64, 128) - self.down2 = Down(128, 256) - self.down3 = Down(256, 512) - factor = 2 if bilinear else 1 - self.down4 = Down(512, 1024 // factor) - self.up1 = Up(1024, 512 // factor, bilinear) - self.up2 = Up(512, 256 // factor, bilinear) - self.up3 = Up(256, 128 // factor, bilinear) - self.up4 = Up(128, 64, bilinear) - self.outc = OutConv(64, n_classes) - - def forward(self, x, add_variable): - x1 = self.inc(x) - x2 = self.down1(x1) - x3 = self.down2(x2) - x4 = self.down3(x3) - x5 = self.down4(x4) - x = self.up1(x5, x4) - x = self.up2(x, x3) - x = self.up3(x, x2) - x = self.up4(x, x1) - x = x + add_variable #修改点 - logits = self.outc(x) - return logits -unet2 = UNet2(3,1) - -c = torch.rand(1,1,224,224) -out_unet2 = unet2(b, c) -print(out_unet2.shape) -``` - - torch.Size([1, 1, 224, 224]) - - - -```python -## 添加额外输出 -class UNet3(nn.Module): - def __init__(self, n_channels, n_classes, bilinear=True): - super(UNet3, self).__init__() - self.n_channels = n_channels - self.n_classes = n_classes - self.bilinear = bilinear - - self.inc = DoubleConv(n_channels, 64) - self.down1 = Down(64, 128) - self.down2 = Down(128, 256) - self.down3 = Down(256, 512) - factor = 2 if bilinear else 1 - self.down4 = Down(512, 1024 // factor) - self.up1 = Up(1024, 512 // factor, bilinear) - self.up2 = Up(512, 256 // factor, bilinear) - self.up3 = Up(256, 128 // factor, bilinear) - self.up4 = Up(128, 64, bilinear) - self.outc = OutConv(64, n_classes) - - def forward(self, x): - x1 = self.inc(x) - x2 = self.down1(x1) - x3 = self.down2(x2) - x4 = self.down3(x3) - x5 = self.down4(x4) - x = self.up1(x5, x4) - x = self.up2(x, x3) - x = self.up3(x, x2) - x = self.up4(x, x1) - logits = self.outc(x) - return logits, x5 # 修改点 -unet3 = UNet3(3,1) - -c = torch.rand(1,1,224,224) -out_unet3, mid_out = unet3(b) -print(out_unet3.shape, mid_out.shape) -``` - - torch.Size([1, 1, 224, 224]) torch.Size([1, 512, 14, 14]) - - - -```python - -``` - -**Point 4:模型保存与读取** -这里相应考虑单卡和多卡情况下的模型存取情况 - - -```python -## 讲解点:回到jupyter的文件目录下,看保存的结果 -``` - - -```python -unet -``` - - - - - UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - - - - -```python -unet.state_dict() -``` - - - - - OrderedDict([('inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]])), - ('inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.num_batches_tracked', tensor(0)), - ('inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]])), - ('inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.num_batches_tracked', tensor(0)), - ('down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]])), - ('down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]])), - ('down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]])), - ('down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]])), - ('down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]])), - ('down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]])), - ('down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]])), - ('down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]])), - ('down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]])), - ('up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]])), - ('up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]])), - ('up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]])), - ('up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]])), - ('up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]])), - ('up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]])), - ('up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]])), - ('up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]])), - ('outc.conv.bias', tensor([-0.0712]))]) - - - - -```python -## CPU或单卡:保存&读取整个模型 -torch.save(unet, "./unet_example.pth") -loaded_unet = torch.load("./unet_example.pth") -loaded_unet.state_dict() -``` - - - - - OrderedDict([('inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]])), - ('inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.num_batches_tracked', tensor(0)), - ('inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]])), - ('inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.num_batches_tracked', tensor(0)), - ('down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]])), - ('down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]])), - ('down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]])), - ('down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]])), - ('down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]])), - ('down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]])), - ('down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]])), - ('down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]])), - ('down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]])), - ('up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]])), - ('up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]])), - ('up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]])), - ('up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]])), - ('up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]])), - ('up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]])), - ('up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]])), - ('up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]])), - ('outc.conv.bias', tensor([-0.0712]))]) - - - - -```python -## CPU或单卡:保存&读取模型权重 -torch.save(unet.state_dict(), "./unet_weight_example.pth") -loaded_unet_weights = torch.load("./unet_weight_example.pth") -unet.load_state_dict(loaded_unet_weights) -unet.state_dict() -``` - - - - - OrderedDict([('inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]])), - ('inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.num_batches_tracked', tensor(0)), - ('inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]])), - ('inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.num_batches_tracked', tensor(0)), - ('down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]])), - ('down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]])), - ('down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]])), - ('down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]])), - ('down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]])), - ('down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]])), - ('down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]])), - ('down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]])), - ('down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]])), - ('up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]])), - ('up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]])), - ('up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]])), - ('up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]])), - ('up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]])), - ('up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]])), - ('up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]])), - ('up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]])), - ('outc.conv.bias', tensor([-0.0712]))]) - - - - -```python -## 多卡:保存&读取整个模型。注意模型层名称前多了module -## 不建议,因为保存模型的GPU_id等信息和读取后训练环境可能不同,尤其是要把保存的模型交给另一用户使用的情况 -os.environ['CUDA_VISIBLE_DEVICES'] = '2,3' -unet_mul = copy.deepcopy(unet) -unet_mul = nn.DataParallel(unet_mul).cuda() -unet_mul -``` - - - - - DataParallel( - (module): UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - ) - - - - -```python -torch.save(unet_mul, "./unet_mul_example.pth") -loaded_unet_mul = torch.load("./unet_mul_example.pth") -loaded_unet_mul -``` - - - - - DataParallel( - (module): UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - ) - - - - -```python -## 多卡:保存&读取模型权重。 -torch.save(unet_mul.state_dict(), "./unet_weight_mul_example.pth") -loaded_unet_weights_mul = torch.load("./unet_weight_mul_example.pth") -unet_mul.load_state_dict(loaded_unet_weights_mul) -unet_mul = nn.DataParallel(unet_mul).cuda() -unet_mul.state_dict() -``` - - - - - OrderedDict([('module.module.inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]], device='cuda:0')), - ('module.module.inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]], device='cuda:0')), - ('module.module.inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]], device='cuda:0')), - ('module.module.outc.conv.bias', - tensor([-0.0712], device='cuda:0'))]) - - - - -```python -# 另外,如果保存的是整个模型,也建议采用提取权重的方式构建新的模型: -unet_mul.state_dict = loaded_unet_mul.state_dict -unet_mul = nn.DataParallel(unet_mul).cuda() -unet_mul.state_dict() -``` - - - - - OrderedDict([('module.module.inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]], device='cuda:0')), - ('module.module.inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]], device='cuda:0')), - ('module.module.inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]], device='cuda:0')), - ('module.module.outc.conv.bias', - tensor([-0.0712], device='cuda:0'))]) - - - - -```python - -``` - -**接下来进入第六章的内容,我们以前面已经搭建好的U-Net模型为例,探索如何更优雅地训练PyTorch模型。** -**首先我们使用[Carvana](kaggle.com/competitions/carvana-image-masking-challenge)数据集,实现一个基本的U-Net训练过程** - - -```python -from torch.utils.data import Dataset, DataLoader -from torchvision import transforms -import torch.optim as optim -import matplotlib.pyplot as plt -import PIL -from sklearn.model_selection import train_test_split - -os.environ['CUDA_VISIBLE_DEVICES'] = '2,3' -``` - - -```python -class CarvanaDataset(Dataset): - def __init__(self, base_dir, idx_list, mode="train", transform=None): - self.base_dir = base_dir - self.idx_list = idx_list - self.images = os.listdir(base_dir+"train") - self.masks = os.listdir(base_dir+"train_masks") - self.mode = mode - self.transform = transform - - def __len__(self): - return len(self.idx_list) - - def __getitem__(self, index): - image_file = self.images[self.idx_list[index]] - mask_file = image_file[:-4]+"_mask.gif" - image = PIL.Image.open(os.path.join(base_dir, "train", image_file)) - if self.mode=="train": - mask = PIL.Image.open(os.path.join(base_dir, "train_masks", mask_file)) - if self.transform is not None: - image = self.transform(image) - mask = self.transform(mask) - mask[mask!=0] = 1.0 - return image, mask.float() - else: - if self.transform is not None: - image = self.transform(image) - return image - -base_dir = "./" -transform = transforms.Compose([transforms.Resize((256,256)), transforms.ToTensor()]) -train_idxs, val_idxs = train_test_split(range(len(os.listdir(base_dir+"train_masks"))), test_size=0.3) -train_data = CarvanaDataset(base_dir, train_idxs, transform=transform) -val_data = CarvanaDataset(base_dir, val_idxs, transform=transform) -train_loader = DataLoader(train_data, batch_size=32, num_workers=4, shuffle=True) -val_loader = DataLoader(train_data, batch_size=32, num_workers=4, shuffle=False) - -``` - - -```python -image, mask = next(iter(train_loader)) -plt.subplot(121) -plt.imshow(image[0,0]) -plt.subplot(122) -plt.imshow(mask[0,0], cmap="gray") -``` - - - - - - - - - - -![png](./figures/output_44_1.png) - - - - -```python -# 使用Binary Cross Entropy Loss,之后我们会尝试替换为自定义的loss -criterion = nn.BCEWithLogitsLoss() -optimizer = optim.Adam(unet.parameters(), lr=1e-3, weight_decay=1e-8) - -unet = nn.DataParallel(unet).cuda() -``` - - -```python -def dice_coeff(pred, target): - eps = 0.0001 - num = pred.size(0) - m1 = pred.view(num, -1) # Flatten - m2 = target.view(num, -1) # Flatten - intersection = (m1 * m2).sum() - return (2. * intersection + eps) / (m1.sum() + m2.sum() + eps) - -def train(epoch): - unet.train() - train_loss = 0 - for data, mask in train_loader: - data, mask = data.cuda(), mask.cuda() - optimizer.zero_grad() - output = unet(data) - loss = criterion(output,mask) - loss.backward() - optimizer.step() - train_loss += loss.item()*data.size(0) - train_loss = train_loss/len(train_loader.dataset) - print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch, train_loss)) - -def val(epoch): - print("current learning rate: ", optimizer.state_dict()["param_groups"][0]["lr"]) - unet.eval() - val_loss = 0 - dice_score = 0 - with torch.no_grad(): - for data, mask in val_loader: - data, mask = data.cuda(), mask.cuda() - output = unet(data) - loss = criterion(output, mask) - val_loss += loss.item()*data.size(0) - dice_score += dice_coeff(torch.sigmoid(output).cpu(), mask.cpu())*data.size(0) - val_loss = val_loss/len(val_loader.dataset) - dice_score = dice_score/len(val_loader.dataset) - print('Epoch: {} \tValidation Loss: {:.6f}, Dice score: {:.6f}'.format(epoch, val_loss, dice_score)) -``` - - -```python -epochs = 100 -for epoch in range(1, epochs+1): - train(epoch) - val(epoch) -``` - - Epoch: 1 Training Loss: 0.179544 - current learning rate: 0.001 - Epoch: 1 Validation Loss: 0.142780, Dice score: 0.774944 - Epoch: 2 Training Loss: 0.060674 - current learning rate: 0.001 - Epoch: 2 Validation Loss: 0.054721, Dice score: 0.909441 - Epoch: 3 Training Loss: 0.033283 - current learning rate: 0.001 - Epoch: 3 Validation Loss: 0.034448, Dice score: 0.945890 - Epoch: 4 Training Loss: 0.023393 - current learning rate: 0.001 - - - - --------------------------------------------------------------------------- - - KeyboardInterrupt Traceback (most recent call last) - - in - 2 for epoch in range(1, epochs+1): - 3 train(epoch) - ----> 4 val(epoch) - - - in val(epoch) - 27 dice_score = 0 - 28 with torch.no_grad(): - ---> 29 for data, mask in val_loader: - 30 data, mask = data.cuda(), mask.cuda() - 31 output = unet(data) - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in __next__(self) - 519 if self._sampler_iter is None: - 520 self._reset() - --> 521 data = self._next_data() - 522 self._num_yielded += 1 - 523 if self._dataset_kind == _DatasetKind.Iterable and \ - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _next_data(self) - 1173 # no valid `self._rcvd_idx` is found (i.e., didn't break) - 1174 if not self._persistent_workers: - -> 1175 self._shutdown_workers() - 1176 raise StopIteration - 1177 - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _shutdown_workers(self) - 1299 # wrong, we set a timeout and if the workers fail to join, - 1300 # they are killed in the `finally` block. - -> 1301 w.join(timeout=_utils.MP_STATUS_CHECK_INTERVAL) - 1302 for q in self._index_queues: - 1303 q.cancel_join_thread() - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/process.py in join(self, timeout) - 147 assert self._parent_pid == os.getpid(), 'can only join a child process' - 148 assert self._popen is not None, 'can only join a started process' - --> 149 res = self._popen.wait(timeout) - 150 if res is not None: - 151 _children.discard(self) - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/popen_fork.py in wait(self, timeout) - 42 if timeout is not None: - 43 from multiprocessing.connection import wait - ---> 44 if not wait([self.sentinel], timeout): - 45 return None - 46 # This shouldn't block if wait() returned successfully. - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/connection.py in wait(object_list, timeout) - 929 - 930 while True: - --> 931 ready = selector.select(timeout) - 932 if ready: - 933 return [key.fileobj for (key, events) in ready] - - - /data1/ljq/anaconda3/lib/python3.8/selectors.py in select(self, timeout) - 413 ready = [] - 414 try: - --> 415 fd_event_list = self._selector.poll(timeout) - 416 except InterruptedError: - 417 return ready - - - KeyboardInterrupt: - - - -```python -!nvidia-smi -``` - - Sun Mar 27 20:57:34 2022 - +-----------------------------------------------------------------------------+ - | NVIDIA-SMI 460.91.03 Driver Version: 460.91.03 CUDA Version: 11.2 | - |-------------------------------+----------------------+----------------------+ - | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | - | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | - | | | MIG M. | - |===============================+======================+======================| - | 0 GeForce RTX 208... Off | 00000000:18:00.0 Off | N/A | - | 27% 30C P8 6W / 250W | 1126MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 1 GeForce RTX 208... Off | 00000000:3B:00.0 Off | N/A | - | 27% 28C P8 16W / 250W | 3MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 2 GeForce RTX 208... Off | 00000000:86:00.0 Off | N/A | - | 58% 53C P2 61W / 250W | 10154MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 3 GeForce RTX 208... Off | 00000000:AF:00.0 Off | N/A | - | 62% 55C P2 62W / 250W | 9854MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - - +-----------------------------------------------------------------------------+ - | Processes: | - | GPU GI CI PID Type Process name GPU Memory | - | ID ID Usage | - |=============================================================================| - | 0 N/A N/A 1140407 C .../envs/r411py37/bin/python 1123MiB | - | 2 N/A N/A 2211464 C .../ljq/anaconda3/bin/python 10151MiB | - | 3 N/A N/A 2211464 C .../ljq/anaconda3/bin/python 9851MiB | - +-----------------------------------------------------------------------------+ - - -**Point 5:自定义损失函数** -如果我们不想使用交叉熵函数,而是想针对分割模型常用的Dice系数设计专门的loss,即DiceLoss,这时就需要我们自定义PyTorch的损失函数 - - -```python -class DiceLoss(nn.Module): - def __init__(self, weight=None, size_average=True): - super(DiceLoss, self).__init__() - - def forward(self,inputs,targets,smooth=1): - inputs = torch.sigmoid(inputs) - inputs = inputs.view(-1) - targets = targets.view(-1) - intersection = (inputs * targets).sum() - dice = (2.*intersection + smooth)/(inputs.sum() + targets.sum() + smooth) - return 1 - dice - -``` - - -```python -newcriterion = DiceLoss() - -unet.eval() -image, mask = next(iter(val_loader)) -out_unet = unet(image.cuda()) -loss = newcriterion(out_unet, mask.cuda()) -print(loss) -``` - - tensor(0.1071, device='cuda:0', grad_fn=) - - -**Point 6:动态调整学习率** -随着优化的进行,固定的学习率可能无法满足优化的需求,这时需要调整学习率,降低优化的速度 -这里演示使用PyTorch自带的StepLR scheduler动态调整学习率的效果,文字版教程中给出了自定义scheduler的方式 - - -```python -scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=1, gamma=0.8) -``` - - -```python -epochs = 100 -for epoch in range(1, epochs+1): - train(epoch) - val(epoch) - scheduler.step() -``` - - Epoch: 1 Training Loss: 0.177876 - current learning rate: 0.001 - Epoch: 1 Validation Loss: 1.773043, Dice score: 0.432005 - Epoch: 2 Training Loss: 0.056940 - current learning rate: 0.0008 - Epoch: 2 Validation Loss: 0.061336, Dice score: 0.906578 - Epoch: 3 Training Loss: 0.042535 - current learning rate: 0.00064 - - - - --------------------------------------------------------------------------- - - KeyboardInterrupt Traceback (most recent call last) - - in - 2 for epoch in range(1, epochs+1): - 3 train(epoch) - ----> 4 val(epoch) - 5 scheduler.step() - - - in val(epoch) - 27 dice_score = 0 - 28 with torch.no_grad(): - ---> 29 for data, mask in val_loader: - 30 data, mask = data.cuda(), mask.cuda() - 31 output = unet(data) - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in __next__(self) - 519 if self._sampler_iter is None: - 520 self._reset() - --> 521 data = self._next_data() - 522 self._num_yielded += 1 - 523 if self._dataset_kind == _DatasetKind.Iterable and \ - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _next_data(self) - 1184 - 1185 assert not self._shutdown and self._tasks_outstanding > 0 - -> 1186 idx, data = self._get_data() - 1187 self._tasks_outstanding -= 1 - 1188 if self._dataset_kind == _DatasetKind.Iterable: - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _get_data(self) - 1150 else: - 1151 while True: - -> 1152 success, data = self._try_get_data() - 1153 if success: - 1154 return data - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _try_get_data(self, timeout) - 988 # (bool: whether successfully get data, any: data if successful else None) - 989 try: - --> 990 data = self._data_queue.get(timeout=timeout) - 991 return (True, data) - 992 except Exception as e: - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/queues.py in get(self, block, timeout) - 105 if block: - 106 timeout = deadline - time.monotonic() - --> 107 if not self._poll(timeout): - 108 raise Empty - 109 elif not self._poll(): - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/connection.py in poll(self, timeout) - 255 self._check_closed() - 256 self._check_readable() - --> 257 return self._poll(timeout) - 258 - 259 def __enter__(self): - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/connection.py in _poll(self, timeout) - 422 - 423 def _poll(self, timeout): - --> 424 r = wait([self], timeout) - 425 return bool(r) - 426 - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/connection.py in wait(object_list, timeout) - 929 - 930 while True: - --> 931 ready = selector.select(timeout) - 932 if ready: - 933 return [key.fileobj for (key, events) in ready] - - - /data1/ljq/anaconda3/lib/python3.8/selectors.py in select(self, timeout) - 413 ready = [] - 414 try: - --> 415 fd_event_list = self._selector.poll(timeout) - 416 except InterruptedError: - 417 return ready - - - KeyboardInterrupt: - - - -```python -?optim.lr_scheduler.StepLR -``` - -**Point 7:模型微调** - - -```python -unet -``` - - - - - DataParallel( - (module): UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - ) - - - - -```python -unet.module.outc.conv.weight.requires_grad = False -unet.module.outc.conv.bias.requires_grad = False - -for layer, param in unet.named_parameters(): - print(layer, '\t', param.requires_grad) -``` - - module.inc.double_conv.0.weight True - module.inc.double_conv.1.weight True - module.inc.double_conv.1.bias True - module.inc.double_conv.3.weight True - module.inc.double_conv.4.weight True - module.inc.double_conv.4.bias True - module.down1.maxpool_conv.1.double_conv.0.weight True - module.down1.maxpool_conv.1.double_conv.1.weight True - module.down1.maxpool_conv.1.double_conv.1.bias True - module.down1.maxpool_conv.1.double_conv.3.weight True - module.down1.maxpool_conv.1.double_conv.4.weight True - module.down1.maxpool_conv.1.double_conv.4.bias True - module.down2.maxpool_conv.1.double_conv.0.weight True - module.down2.maxpool_conv.1.double_conv.1.weight True - module.down2.maxpool_conv.1.double_conv.1.bias True - module.down2.maxpool_conv.1.double_conv.3.weight True - module.down2.maxpool_conv.1.double_conv.4.weight True - module.down2.maxpool_conv.1.double_conv.4.bias True - module.down3.maxpool_conv.1.double_conv.0.weight True - module.down3.maxpool_conv.1.double_conv.1.weight True - module.down3.maxpool_conv.1.double_conv.1.bias True - module.down3.maxpool_conv.1.double_conv.3.weight True - module.down3.maxpool_conv.1.double_conv.4.weight True - module.down3.maxpool_conv.1.double_conv.4.bias True - module.down4.maxpool_conv.1.double_conv.0.weight True - module.down4.maxpool_conv.1.double_conv.1.weight True - module.down4.maxpool_conv.1.double_conv.1.bias True - module.down4.maxpool_conv.1.double_conv.3.weight True - module.down4.maxpool_conv.1.double_conv.4.weight True - module.down4.maxpool_conv.1.double_conv.4.bias True - module.up1.conv.double_conv.0.weight True - module.up1.conv.double_conv.1.weight True - module.up1.conv.double_conv.1.bias True - module.up1.conv.double_conv.3.weight True - module.up1.conv.double_conv.4.weight True - module.up1.conv.double_conv.4.bias True - module.up2.conv.double_conv.0.weight True - module.up2.conv.double_conv.1.weight True - module.up2.conv.double_conv.1.bias True - module.up2.conv.double_conv.3.weight True - module.up2.conv.double_conv.4.weight True - module.up2.conv.double_conv.4.bias True - module.up3.conv.double_conv.0.weight True - module.up3.conv.double_conv.1.weight True - module.up3.conv.double_conv.1.bias True - module.up3.conv.double_conv.3.weight True - module.up3.conv.double_conv.4.weight True - module.up3.conv.double_conv.4.bias True - module.up4.conv.double_conv.0.weight True - module.up4.conv.double_conv.1.weight True - module.up4.conv.double_conv.1.bias True - module.up4.conv.double_conv.3.weight True - module.up4.conv.double_conv.4.weight True - module.up4.conv.double_conv.4.bias True - module.outc.conv.weight False - module.outc.conv.bias False - - - -```python -param -``` - - - - - Parameter containing: - tensor([-0.1994], device='cuda:0') - - -**Point 8:半精度训练** - - -```python -## 演示时需要restart kernel,并运行Unet模块 - -from torch.cuda.amp import autocast -os.environ['CUDA_VISIBLE_DEVICES'] = '2,3' -``` - - -```python -class CarvanaDataset(Dataset): - def __init__(self, base_dir, idx_list, mode="train", transform=None): - self.base_dir = base_dir - self.idx_list = idx_list - self.images = os.listdir(base_dir+"train") - self.masks = os.listdir(base_dir+"train_masks") - self.mode = mode - self.transform = transform - - def __len__(self): - return len(self.idx_list) - - def __getitem__(self, index): - image_file = self.images[self.idx_list[index]] - mask_file = image_file[:-4]+"_mask.gif" - image = PIL.Image.open(os.path.join(base_dir, "train", image_file)) - if self.mode=="train": - mask = PIL.Image.open(os.path.join(base_dir, "train_masks", mask_file)) - if self.transform is not None: - image = self.transform(image) - mask = self.transform(mask) - mask[mask!=0] = 1.0 - return image, mask.float() - else: - if self.transform is not None: - image = self.transform(image) - return image - -base_dir = "./" -transform = transforms.Compose([transforms.Resize((256,256)), transforms.ToTensor()]) -train_idxs, val_idxs = train_test_split(range(len(os.listdir(base_dir+"train_masks"))), test_size=0.3) -train_data = CarvanaDataset(base_dir, train_idxs, transform=transform) -val_data = CarvanaDataset(base_dir, val_idxs, transform=transform) -train_loader = DataLoader(train_data, batch_size=32, num_workers=4, shuffle=True) -val_loader = DataLoader(train_data, batch_size=32, num_workers=4, shuffle=False) - -``` - - -```python -class UNet_half(nn.Module): - def __init__(self, n_channels, n_classes, bilinear=True): - super(UNet_half, self).__init__() - self.n_channels = n_channels - self.n_classes = n_classes - self.bilinear = bilinear - - self.inc = DoubleConv(n_channels, 64) - self.down1 = Down(64, 128) - self.down2 = Down(128, 256) - self.down3 = Down(256, 512) - factor = 2 if bilinear else 1 - self.down4 = Down(512, 1024 // factor) - self.up1 = Up(1024, 512 // factor, bilinear) - self.up2 = Up(512, 256 // factor, bilinear) - self.up3 = Up(256, 128 // factor, bilinear) - self.up4 = Up(128, 64, bilinear) - self.outc = OutConv(64, n_classes) - - @autocast() - def forward(self, x): - x1 = self.inc(x) - x2 = self.down1(x1) - x3 = self.down2(x2) - x4 = self.down3(x3) - x5 = self.down4(x4) - x = self.up1(x5, x4) - x = self.up2(x, x3) - x = self.up3(x, x2) - x = self.up4(x, x1) - logits = self.outc(x) - return logits - -unet_half = UNet_half(3,1) -unet_half = nn.DataParallel(unet_half).cuda() -``` - - -```python -criterion = nn.BCEWithLogitsLoss() -optimizer = optim.Adam(unet_half.parameters(), lr=1e-3, weight_decay=1e-8) -``` - - -```python -def dice_coeff(pred, target): - eps = 0.0001 - num = pred.size(0) - m1 = pred.view(num, -1) # Flatten - m2 = target.view(num, -1) # Flatten - intersection = (m1 * m2).sum() - return (2. * intersection + eps) / (m1.sum() + m2.sum() + eps) - -def train_half(epoch): - unet_half.train() - train_loss = 0 - for data, mask in train_loader: - data, mask = data.cuda(), mask.cuda() - with autocast(): - optimizer.zero_grad() - output = unet_half(data) - loss = criterion(output,mask) - loss.backward() - optimizer.step() - train_loss += loss.item()*data.size(0) - train_loss = train_loss/len(train_loader.dataset) - print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch, train_loss)) - -def val_half(epoch): - print("current learning rate: ", optimizer.state_dict()["param_groups"][0]["lr"]) - unet_half.eval() - val_loss = 0 - dice_score = 0 - with torch.no_grad(): - for data, mask in val_loader: - data, mask = data.cuda(), mask.cuda() - with autocast(): - output = unet_half(data) - loss = criterion(output, mask) - val_loss += loss.item()*data.size(0) - dice_score += dice_coeff(torch.sigmoid(output).cpu(), mask.cpu())*data.size(0) - val_loss = val_loss/len(val_loader.dataset) - dice_score = dice_score/len(val_loader.dataset) - print('Epoch: {} \tValidation Loss: {:.6f}, Dice score: {:.6f}'.format(epoch, val_loss, dice_score)) -``` - - -```python -epochs = 100 -scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=1, gamma=0.8) -for epoch in range(1, epochs+1): - train_half(epoch) - val_half(epoch) - scheduler.step() -``` - - Epoch: 1 Training Loss: 0.431690 - current learning rate: 0.001 - Epoch: 1 Validation Loss: 0.399930, Dice score: 0.000200 - - - - --------------------------------------------------------------------------- - - KeyboardInterrupt Traceback (most recent call last) - - in - 2 scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=1, gamma=0.8) - 3 for epoch in range(1, epochs+1): - ----> 4 train_half(epoch) - 5 val_half(epoch) - 6 scheduler.step() - - - in train_half(epoch) - 18 loss.backward() - 19 optimizer.step() - ---> 20 train_loss += loss.item()*data.size(0) - 21 train_loss = train_loss/len(train_loader.dataset) - 22 print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch, train_loss)) - - - KeyboardInterrupt: - - - -```bash -!nvidia-smi -``` - - Sun Mar 27 21:17:28 2022 - +-----------------------------------------------------------------------------+ - | NVIDIA-SMI 460.91.03 Driver Version: 460.91.03 CUDA Version: 11.2 | - |-------------------------------+----------------------+----------------------+ - | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | - | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | - | | | MIG M. | - |===============================+======================+======================| - | 0 GeForce RTX 208... Off | 00000000:18:00.0 Off | N/A | - | 49% 49C P2 52W / 250W | 8989MiB / 11019MiB | 1% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 1 GeForce RTX 208... Off | 00000000:3B:00.0 Off | N/A | - | 59% 53C P2 64W / 250W | 7866MiB / 11019MiB | 1% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 2 GeForce RTX 208... Off | 00000000:86:00.0 Off | N/A | - | 52% 54C P2 61W / 250W | 5862MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 3 GeForce RTX 208... Off | 00000000:AF:00.0 Off | N/A | - | 52% 54C P2 61W / 250W | 5814MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - - +-----------------------------------------------------------------------------+ - | Processes: | - | GPU GI CI PID Type Process name GPU Memory | - | ID ID Usage | - |=============================================================================| - | 0 N/A N/A 1140407 C .../envs/r411py37/bin/python 1123MiB | - | 0 N/A N/A 2231210 C python 7863MiB | - | 1 N/A N/A 2233380 C python 7863MiB | - | 2 N/A N/A 2233881 C .../ljq/anaconda3/bin/python 5859MiB | - | 3 N/A N/A 2233881 C .../ljq/anaconda3/bin/python 5811MiB | - +-----------------------------------------------------------------------------+ - diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/PyTorch\346\250\241\345\236\213\345\256\232\344\271\211\344\270\216\350\277\233\351\230\266\350\256\255\347\273\203\346\212\200\345\267\247.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/PyTorch\346\250\241\345\236\213\345\256\232\344\271\211\344\270\216\350\277\233\351\230\266\350\256\255\347\273\203\346\212\200\345\267\247.md.txt" deleted file mode 100644 index 6a07e78ee..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/PyTorch\346\250\241\345\236\213\345\256\232\344\271\211\344\270\216\350\277\233\351\230\266\350\256\255\347\273\203\346\212\200\345\267\247.md.txt" +++ /dev/null @@ -1,22052 +0,0 @@ -# PyTorch模型定义与进阶训练技巧 -notebook配套教程第五章和第六章,将结合U-Net模型来探索PyTorch的模型定义方式和进阶训练技巧。 -下方每个“Point”对应于教程中每一节的内容。 - - -```python -import os -import numpy as np -import collections -import torch -import torch.nn as nn -import torch.nn.functional as F -import torchvision -``` - -**Point 1:模型定义方式** -PyTorch中自定义模型主要通过以下三种方式: -- Sequential -- ModuleList -- ModuleDict - - -```python -## 讲解点:使用ordered dict更有助于一目了然模型结构,对于之后模型修改也非常有帮助 -``` - - -```python -## Sequential: Direct list -import torch.nn as nn -net1 = nn.Sequential( - nn.Linear(784, 256), - nn.ReLU(), - nn.Linear(256, 10), - ) -print(net1) -``` - - Sequential( - (0): Linear(in_features=784, out_features=256, bias=True) - (1): ReLU() - (2): Linear(in_features=256, out_features=10, bias=True) - ) - - - -```python -## Sequential: Ordered Dict -import collections -import torch.nn as nn -net2 = nn.Sequential(collections.OrderedDict([ - ('fc1', nn.Linear(784, 256)), - ('relu1', nn.ReLU()), - ('fc2', nn.Linear(256, 10)) - ])) -print(net2) -``` - - Sequential( - (fc1): Linear(in_features=784, out_features=256, bias=True) - (relu1): ReLU() - (fc2): Linear(in_features=256, out_features=10, bias=True) - ) - - - -```python -# 试一下 -a = torch.rand(4,784) -out1 = net1(a) -out2 = net2(a) -print(out1.shape==out2.shape, out1.shape) -``` - - True torch.Size([4, 10]) - - - -```python -## ModuleList -net3 = nn.ModuleList([nn.Linear(784, 256), nn.ReLU()]) -net3.append(nn.Linear(256, 10)) # # 类似List的append操作 -print(net3[-1]) # 类似List的索引访问 -print(net3) -``` - - Linear(in_features=256, out_features=10, bias=True) - ModuleList( - (0): Linear(in_features=784, out_features=256, bias=True) - (1): ReLU() - (2): Linear(in_features=256, out_features=10, bias=True) - ) - - - -```python -# 注意ModuleList 并没有定义一个网络,它只是将不同的模块储存在一起。此处应报错 -out3 = net3(a) -``` - - - --------------------------------------------------------------------------- - - NotImplementedError Traceback (most recent call last) - - in - 1 # 注意ModuleList 并没有定义一个网络,它只是将不同的模块储存在一起。此处应报错 - ----> 2 out3 = net3(a) - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/nn/modules/module.py in _call_impl(self, *input, **kwargs) - 1100 if not (self._backward_hooks or self._forward_hooks or self._forward_pre_hooks or _global_backward_hooks - 1101 or _global_forward_hooks or _global_forward_pre_hooks): - -> 1102 return forward_call(*input, **kwargs) - 1103 # Do not call functions when jit is used - 1104 full_backward_hooks, non_full_backward_hooks = [], [] - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/nn/modules/module.py in _forward_unimplemented(self, *input) - 199 registered hooks while the latter silently ignores them. - 200 """ - --> 201 raise NotImplementedError - 202 - 203 - - - NotImplementedError: - - - -```python -class Net3(nn.Module): - def __init__(self): - super().__init__() - self.modulelist = nn.ModuleList([nn.Linear(784, 256), nn.ReLU()]) - self.modulelist.append(nn.Linear(256, 10)) - - def forward(self, x): - for layer in self.modulelist: - x = layer(x) - return x -net3_ = Net3() -out3_ = net3_(a) -print(out3_.shape) -``` - - torch.Size([4, 10]) - - - -```python -## ModuleDict -net4 = nn.ModuleDict({ - 'linear': nn.Linear(784, 256), - 'act': nn.ReLU(), -}) -net4['output'] = nn.Linear(256, 10) # 添加 -print(net4['linear']) # 访问 -print(net4.output) -``` - - Linear(in_features=784, out_features=256, bias=True) - Linear(in_features=256, out_features=10, bias=True) - - - -```python -# 同样地,ModuleDict并没有定义一个网络,它只是将不同的模块储存在一起。此处应报错。 -# 正确使用方式同上 -out4 = net4(a) -``` - - - --------------------------------------------------------------------------- - - NotImplementedError Traceback (most recent call last) - - in - 1 # 同样地,ModuleDict并没有定义一个网络,它只是将不同的模块储存在一起。此处应报错。 - 2 # 正确使用方式同上 - ----> 3 out4 = net4(a) - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/nn/modules/module.py in _call_impl(self, *input, **kwargs) - 1100 if not (self._backward_hooks or self._forward_hooks or self._forward_pre_hooks or _global_backward_hooks - 1101 or _global_forward_hooks or _global_forward_pre_hooks): - -> 1102 return forward_call(*input, **kwargs) - 1103 # Do not call functions when jit is used - 1104 full_backward_hooks, non_full_backward_hooks = [], [] - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/nn/modules/module.py in _forward_unimplemented(self, *input) - 199 registered hooks while the latter silently ignores them. - 200 """ - --> 201 raise NotImplementedError - 202 - 203 - - - NotImplementedError: - - - -```python - -``` - -**Point 2:利用模型块快速搭建复杂网络** -下面我们开始探索如何利用模型块,快速构建U-Net网络 -![img](./figures/output_44_1.png) -组成U-Net的模型块主要有如下几个部分: -1)每个子块内部的两次卷积(Double Convolution) -2)左侧模型块之间的下采样连接,即最大池化(Max pooling) -3)右侧模型块之间的上采样连接(Up sampling) -4)输出层的处理 - -除模型块外,还有模型块之间的横向连接,输入和U-Net底部的连接等计算,这些单独的操作可以通过forward函数来实现。 -(参考:https://github.com/milesial/Pytorch-UNet ) - - -```python -import os -import numpy as np -import collections -import torch -import torch.nn as nn -import torch.nn.functional as F -import torchvision -``` - - -```python -class DoubleConv(nn.Module): - """(convolution => [BN] => ReLU) * 2""" - - def __init__(self, in_channels, out_channels, mid_channels=None): - super().__init__() - if not mid_channels: - mid_channels = out_channels - self.double_conv = nn.Sequential( - nn.Conv2d(in_channels, mid_channels, kernel_size=3, padding=1, bias=False), - nn.BatchNorm2d(mid_channels), - nn.ReLU(inplace=True), - nn.Conv2d(mid_channels, out_channels, kernel_size=3, padding=1, bias=False), - nn.BatchNorm2d(out_channels), - nn.ReLU(inplace=True) - ) - - def forward(self, x): - return self.double_conv(x) - -``` - - -```python -class Down(nn.Module): - """Downscaling with maxpool then double conv""" - - def __init__(self, in_channels, out_channels): - super().__init__() - self.maxpool_conv = nn.Sequential( - nn.MaxPool2d(2), - DoubleConv(in_channels, out_channels) - ) - - def forward(self, x): - return self.maxpool_conv(x) - -``` - - -```python -class Up(nn.Module): - """Upscaling then double conv""" - - def __init__(self, in_channels, out_channels, bilinear=True): - super().__init__() - - # if bilinear, use the normal convolutions to reduce the number of channels - if bilinear: - self.up = nn.Upsample(scale_factor=2, mode='bilinear', align_corners=True) - self.conv = DoubleConv(in_channels, out_channels, in_channels // 2) - else: - self.up = nn.ConvTranspose2d(in_channels, in_channels // 2, kernel_size=2, stride=2) - self.conv = DoubleConv(in_channels, out_channels) - - def forward(self, x1, x2): - x1 = self.up(x1) - # input is CHW - diffY = x2.size()[2] - x1.size()[2] - diffX = x2.size()[3] - x1.size()[3] - - x1 = F.pad(x1, [diffX // 2, diffX - diffX // 2, - diffY // 2, diffY - diffY // 2]) - # if you have padding issues, see - # https://github.com/HaiyongJiang/U-Net-Pytorch-Unstructured-Buggy/commit/0e854509c2cea854e247a9c615f175f76fbb2e3a - # https://github.com/xiaopeng-liao/Pytorch-UNet/commit/8ebac70e633bac59fc22bb5195e513d5832fb3bd - x = torch.cat([x2, x1], dim=1) - return self.conv(x) -``` - - -```python -class OutConv(nn.Module): - def __init__(self, in_channels, out_channels): - super(OutConv, self).__init__() - self.conv = nn.Conv2d(in_channels, out_channels, kernel_size=1) - - def forward(self, x): - return self.conv(x) -``` - - -```python -## 组装 -class UNet(nn.Module): - def __init__(self, n_channels, n_classes, bilinear=True): - super(UNet, self).__init__() - self.n_channels = n_channels - self.n_classes = n_classes - self.bilinear = bilinear - - self.inc = DoubleConv(n_channels, 64) - self.down1 = Down(64, 128) - self.down2 = Down(128, 256) - self.down3 = Down(256, 512) - factor = 2 if bilinear else 1 - self.down4 = Down(512, 1024 // factor) - self.up1 = Up(1024, 512 // factor, bilinear) - self.up2 = Up(512, 256 // factor, bilinear) - self.up3 = Up(256, 128 // factor, bilinear) - self.up4 = Up(128, 64, bilinear) - self.outc = OutConv(64, n_classes) - - def forward(self, x): - x1 = self.inc(x) - x2 = self.down1(x1) - x3 = self.down2(x2) - x4 = self.down3(x3) - x5 = self.down4(x4) - x = self.up1(x5, x4) - x = self.up2(x, x3) - x = self.up3(x, x2) - x = self.up4(x, x1) - logits = self.outc(x) - return logits -``` - - -```python -unet = UNet(3,1) -unet -``` - - - - - UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - - - - -```python - -``` - -**Point 3:模型修改** -这里我们假设最后的分割是多类别的(即mask不止0和1,还有2,3,4等值代表其他目标),需要对模型特定层进行修改。 -此外还有两种情况的模型修改方式,这里也做演示: -- 添加额外输入 -- 添加额外输出 - - -```python -## 修改特定层 -import copy -unet1 = copy.deepcopy(unet) -unet1.outc -``` - - - - - OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - - - - -```python -b = torch.rand(1,3,224,224) -out_unet1 = unet1(b) -print(out_unet1.shape) -``` - - torch.Size([1, 1, 224, 224]) - - - -```python -unet1.outc = OutConv(64, 5) -unet1.outc -``` - - - - - OutConv( - (conv): Conv2d(64, 5, kernel_size=(1, 1), stride=(1, 1)) - ) - - - - -```python -out_unet1 = unet1(b) -print(out_unet1.shape) -``` - - torch.Size([1, 5, 224, 224]) - - - -```python -## 添加额外输入 -class UNet2(nn.Module): - def __init__(self, n_channels, n_classes, bilinear=True): - super(UNet2, self).__init__() - self.n_channels = n_channels - self.n_classes = n_classes - self.bilinear = bilinear - - self.inc = DoubleConv(n_channels, 64) - self.down1 = Down(64, 128) - self.down2 = Down(128, 256) - self.down3 = Down(256, 512) - factor = 2 if bilinear else 1 - self.down4 = Down(512, 1024 // factor) - self.up1 = Up(1024, 512 // factor, bilinear) - self.up2 = Up(512, 256 // factor, bilinear) - self.up3 = Up(256, 128 // factor, bilinear) - self.up4 = Up(128, 64, bilinear) - self.outc = OutConv(64, n_classes) - - def forward(self, x, add_variable): - x1 = self.inc(x) - x2 = self.down1(x1) - x3 = self.down2(x2) - x4 = self.down3(x3) - x5 = self.down4(x4) - x = self.up1(x5, x4) - x = self.up2(x, x3) - x = self.up3(x, x2) - x = self.up4(x, x1) - x = x + add_variable #修改点 - logits = self.outc(x) - return logits -unet2 = UNet2(3,1) - -c = torch.rand(1,1,224,224) -out_unet2 = unet2(b, c) -print(out_unet2.shape) -``` - - torch.Size([1, 1, 224, 224]) - - - -```python -## 添加额外输出 -class UNet3(nn.Module): - def __init__(self, n_channels, n_classes, bilinear=True): - super(UNet3, self).__init__() - self.n_channels = n_channels - self.n_classes = n_classes - self.bilinear = bilinear - - self.inc = DoubleConv(n_channels, 64) - self.down1 = Down(64, 128) - self.down2 = Down(128, 256) - self.down3 = Down(256, 512) - factor = 2 if bilinear else 1 - self.down4 = Down(512, 1024 // factor) - self.up1 = Up(1024, 512 // factor, bilinear) - self.up2 = Up(512, 256 // factor, bilinear) - self.up3 = Up(256, 128 // factor, bilinear) - self.up4 = Up(128, 64, bilinear) - self.outc = OutConv(64, n_classes) - - def forward(self, x): - x1 = self.inc(x) - x2 = self.down1(x1) - x3 = self.down2(x2) - x4 = self.down3(x3) - x5 = self.down4(x4) - x = self.up1(x5, x4) - x = self.up2(x, x3) - x = self.up3(x, x2) - x = self.up4(x, x1) - logits = self.outc(x) - return logits, x5 # 修改点 -unet3 = UNet3(3,1) - -c = torch.rand(1,1,224,224) -out_unet3, mid_out = unet3(b) -print(out_unet3.shape, mid_out.shape) -``` - - torch.Size([1, 1, 224, 224]) torch.Size([1, 512, 14, 14]) - - - -```python - -``` - -**Point 4:模型保存与读取** -这里相应考虑单卡和多卡情况下的模型存取情况 - - -```python -## 讲解点:回到jupyter的文件目录下,看保存的结果 -``` - - -```python -unet -``` - - - - - UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - - - - -```python -unet.state_dict() -``` - - - - - OrderedDict([('inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]])), - ('inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.num_batches_tracked', tensor(0)), - ('inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]])), - ('inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.num_batches_tracked', tensor(0)), - ('down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]])), - ('down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]])), - ('down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]])), - ('down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]])), - ('down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]])), - ('down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]])), - ('down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]])), - ('down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]])), - ('down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]])), - ('up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]])), - ('up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]])), - ('up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]])), - ('up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]])), - ('up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]])), - ('up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]])), - ('up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]])), - ('up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]])), - ('outc.conv.bias', tensor([-0.0712]))]) - - - - -```python -## CPU或单卡:保存&读取整个模型 -torch.save(unet, "./unet_example.pth") -loaded_unet = torch.load("./unet_example.pth") -loaded_unet.state_dict() -``` - - - - - OrderedDict([('inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]])), - ('inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.num_batches_tracked', tensor(0)), - ('inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]])), - ('inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.num_batches_tracked', tensor(0)), - ('down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]])), - ('down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]])), - ('down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]])), - ('down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]])), - ('down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]])), - ('down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]])), - ('down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]])), - ('down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]])), - ('down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]])), - ('up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]])), - ('up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]])), - ('up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]])), - ('up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]])), - ('up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]])), - ('up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]])), - ('up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]])), - ('up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]])), - ('outc.conv.bias', tensor([-0.0712]))]) - - - - -```python -## CPU或单卡:保存&读取模型权重 -torch.save(unet.state_dict(), "./unet_weight_example.pth") -loaded_unet_weights = torch.load("./unet_weight_example.pth") -unet.load_state_dict(loaded_unet_weights) -unet.state_dict() -``` - - - - - OrderedDict([('inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]])), - ('inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.1.num_batches_tracked', tensor(0)), - ('inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]])), - ('inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('inc.double_conv.4.num_batches_tracked', tensor(0)), - ('down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]])), - ('down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]])), - ('down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]])), - ('down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]])), - ('down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]])), - ('down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]])), - ('down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]])), - ('down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0)), - ('down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]])), - ('down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0)), - ('up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]])), - ('up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up1.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]])), - ('up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up1.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]])), - ('up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.])), - ('up2.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]])), - ('up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up2.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]])), - ('up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.])), - ('up3.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]])), - ('up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up3.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]])), - ('up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.1.num_batches_tracked', tensor(0)), - ('up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]])), - ('up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])), - ('up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.])), - ('up4.conv.double_conv.4.num_batches_tracked', tensor(0)), - ('outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]])), - ('outc.conv.bias', tensor([-0.0712]))]) - - - - -```python -## 多卡:保存&读取整个模型。注意模型层名称前多了module -## 不建议,因为保存模型的GPU_id等信息和读取后训练环境可能不同,尤其是要把保存的模型交给另一用户使用的情况 -os.environ['CUDA_VISIBLE_DEVICES'] = '2,3' -unet_mul = copy.deepcopy(unet) -unet_mul = nn.DataParallel(unet_mul).cuda() -unet_mul -``` - - - - - DataParallel( - (module): UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - ) - - - - -```python -torch.save(unet_mul, "./unet_mul_example.pth") -loaded_unet_mul = torch.load("./unet_mul_example.pth") -loaded_unet_mul -``` - - - - - DataParallel( - (module): UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - ) - - - - -```python -## 多卡:保存&读取模型权重。 -torch.save(unet_mul.state_dict(), "./unet_weight_mul_example.pth") -loaded_unet_weights_mul = torch.load("./unet_weight_mul_example.pth") -unet_mul.load_state_dict(loaded_unet_weights_mul) -unet_mul = nn.DataParallel(unet_mul).cuda() -unet_mul.state_dict() -``` - - - - - OrderedDict([('module.module.inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]], device='cuda:0')), - ('module.module.inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]], device='cuda:0')), - ('module.module.inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]], device='cuda:0')), - ('module.module.outc.conv.bias', - tensor([-0.0712], device='cuda:0'))]) - - - - -```python -# 另外,如果保存的是整个模型,也建议采用提取权重的方式构建新的模型: -unet_mul.state_dict = loaded_unet_mul.state_dict -unet_mul = nn.DataParallel(unet_mul).cuda() -unet_mul.state_dict() -``` - - - - - OrderedDict([('module.module.inc.double_conv.0.weight', - tensor([[[[-0.1569, -0.0516, 0.1381], - [-0.0167, 0.1114, -0.1482], - [-0.1659, -0.0492, -0.1526]], - - [[ 0.0871, 0.1102, -0.1270], - [ 0.1058, 0.0541, -0.0767], - [ 0.1247, 0.1813, 0.1895]], - - [[ 0.0929, -0.1305, 0.0531], - [-0.0972, -0.1668, -0.0183], - [-0.1754, -0.0862, 0.0373]]], - - - [[[-0.0014, 0.1440, -0.0519], - [ 0.1643, 0.1829, 0.1713], - [-0.0702, -0.0426, 0.0083]], - - [[ 0.1057, 0.0303, 0.0280], - [-0.0306, -0.0898, 0.1635], - [-0.1388, -0.0430, 0.0839]], - - [[ 0.0840, 0.1753, 0.0916], - [ 0.0819, 0.1624, 0.1901], - [ 0.1914, 0.0483, -0.0875]]], - - - [[[ 0.1197, -0.1618, -0.1778], - [ 0.0866, -0.0638, -0.1615], - [ 0.1437, -0.1523, -0.1007]], - - [[-0.1395, -0.0602, -0.0457], - [ 0.0582, -0.1701, 0.0586], - [-0.1828, 0.0463, 0.1460]], - - [[ 0.0735, 0.0299, -0.0629], - [-0.0345, -0.0038, 0.0794], - [-0.0958, -0.1519, -0.0411]]], - - - ..., - - - [[[-0.1095, 0.0703, -0.0860], - [-0.1243, -0.0596, -0.1636], - [ 0.0819, 0.0457, 0.1248]], - - [[-0.1077, -0.1394, 0.0295], - [ 0.1442, -0.1271, 0.1462], - [-0.1011, 0.1301, -0.1294]], - - [[-0.1653, -0.1431, -0.1031], - [ 0.0511, 0.1370, 0.0210], - [-0.1709, 0.0438, -0.0352]]], - - - [[[-0.0893, 0.1826, -0.0856], - [-0.1679, 0.0620, 0.1056], - [-0.0206, -0.1745, -0.0500]], - - [[ 0.0784, 0.0502, 0.1084], - [-0.0746, -0.1213, 0.0849], - [-0.1682, -0.1131, -0.1769]], - - [[ 0.1111, -0.0814, 0.1804], - [-0.0183, 0.0950, -0.0082], - [-0.0761, -0.0757, -0.1657]]], - - - [[[ 0.0543, -0.0157, -0.1387], - [ 0.1503, 0.1388, 0.0653], - [ 0.1474, -0.0991, -0.1478]], - - [[ 0.0953, -0.1215, 0.1848], - [-0.0360, 0.0052, -0.1841], - [-0.1859, -0.0946, 0.1727]], - - [[-0.0668, -0.0142, 0.1517], - [-0.1101, 0.0217, -0.1021], - [-0.1509, 0.0912, 0.1346]]]], device='cuda:0')), - ('module.module.inc.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.inc.double_conv.3.weight', - tensor([[[[-4.1079e-02, 2.4625e-02, -5.8618e-03], - [-3.6583e-02, -1.7239e-02, 2.4723e-02], - [-2.0914e-03, 3.0168e-02, -2.0448e-02]], - - [[ 4.1381e-03, -2.0328e-02, -2.9454e-02], - [ 1.0681e-02, -3.6947e-02, -1.4246e-02], - [-3.8679e-03, 2.3515e-02, 7.0796e-03]], - - [[-3.3515e-02, 2.3345e-02, -5.7584e-04], - [ 3.0752e-02, -3.5342e-02, -3.0192e-02], - [ 3.0137e-02, 4.9735e-03, 3.0268e-02]], - - ..., - - [[ 2.6247e-02, 3.5036e-02, -2.7703e-02], - [ 1.2037e-02, -1.1631e-02, -3.5691e-02], - [ 1.8343e-02, 2.3172e-02, -2.3284e-02]], - - [[ 3.9720e-02, -2.9578e-02, -3.8113e-02], - [ 6.7576e-04, -4.0048e-02, -6.3216e-05], - [ 1.9008e-02, 3.8545e-02, 3.0812e-02]], - - [[-6.7981e-03, -1.5902e-03, 3.7965e-02], - [ 8.6753e-03, -1.4569e-03, -1.9033e-02], - [-2.0683e-02, -2.7206e-02, 2.5007e-02]]], - - - [[[-1.3453e-02, 4.8410e-03, 6.3604e-03], - [ 1.4860e-02, -1.9902e-04, -3.7245e-02], - [ 1.2965e-02, 9.0473e-03, 2.3664e-02]], - - [[-3.6142e-02, -2.9932e-02, -2.7691e-02], - [ 2.6747e-02, 2.1051e-02, -6.9610e-03], - [ 1.6672e-02, 2.4121e-02, 3.9934e-02]], - - [[ 1.8793e-02, 3.8492e-02, -1.8463e-02], - [ 2.4193e-02, 1.2931e-02, -2.9170e-02], - [-2.2503e-02, 7.4183e-03, -9.9386e-03]], - - ..., - - [[-3.5583e-02, 1.0415e-02, 2.6884e-03], - [-2.4120e-02, -1.6516e-02, -3.5117e-02], - [-1.1389e-02, -3.2349e-02, -5.4190e-03]], - - [[ 1.0794e-02, -1.4699e-02, -3.9218e-02], - [ 7.2620e-03, 2.3942e-02, -9.0866e-03], - [-3.9156e-02, -2.2665e-02, 3.0706e-02]], - - [[ 2.5315e-02, 3.8635e-02, -1.4174e-03], - [ 4.2061e-03, -3.3006e-02, -2.6736e-02], - [-1.2201e-02, 2.4348e-02, -2.8096e-02]]], - - - [[[-2.9801e-02, 1.3935e-02, -2.9342e-02], - [-4.2913e-03, 9.5715e-03, 3.7494e-02], - [ 2.2639e-02, 1.3474e-02, 2.3872e-02]], - - [[ 1.6016e-03, 2.9424e-02, 2.3341e-02], - [-1.2055e-02, -3.9560e-02, -1.5007e-02], - [ 2.5384e-02, -4.1246e-02, 2.9730e-02]], - - [[ 2.2965e-02, -2.7511e-02, -1.2306e-02], - [-1.4792e-02, 2.7210e-03, -3.1689e-02], - [ 3.1452e-02, -2.1154e-02, 3.2495e-02]], - - ..., - - [[ 6.1211e-03, -1.7085e-03, 1.0614e-02], - [-1.3250e-03, 2.0869e-02, 7.6367e-03], - [-3.3447e-02, -3.5193e-02, -3.4296e-02]], - - [[ 2.6182e-02, -9.0026e-03, 4.3130e-03], - [-1.9488e-02, 3.6438e-02, -2.9620e-02], - [-4.0476e-02, 8.5702e-03, 2.2612e-02]], - - [[ 1.9338e-03, -1.3990e-02, 8.3609e-03], - [-1.3580e-02, -3.6543e-02, 2.8900e-02], - [ 2.8948e-02, -2.2145e-03, -2.4276e-02]]], - - - ..., - - - [[[ 6.0462e-03, 3.9649e-02, 1.0557e-02], - [ 3.1926e-02, 3.8248e-02, 9.8494e-03], - [ 1.2289e-03, -1.9980e-02, -3.3557e-02]], - - [[-4.0275e-02, 1.1621e-02, 1.1366e-02], - [-1.9881e-02, 6.3696e-03, 4.0948e-02], - [-1.5219e-02, -1.6628e-02, 2.8343e-03]], - - [[ 2.7490e-02, 3.5501e-02, 3.2039e-02], - [ 3.5091e-03, 1.1285e-02, 1.5338e-02], - [ 1.9410e-02, -5.1183e-03, -2.9545e-02]], - - ..., - - [[-2.0173e-02, 3.1788e-02, 8.5245e-03], - [ 1.2969e-02, 1.4843e-02, 1.5726e-02], - [ 3.1018e-02, -2.0554e-02, 1.6326e-02]], - - [[-3.5004e-02, 3.6636e-02, 5.2004e-03], - [ 2.9926e-02, 3.7449e-02, 6.1300e-04], - [-5.1867e-04, -4.0083e-02, -3.0298e-02]], - - [[-1.5009e-02, 4.1003e-02, 7.9811e-03], - [ 6.5824e-03, -2.2011e-02, 8.9981e-03], - [ 1.5385e-02, -3.9503e-02, 4.1086e-02]]], - - - [[[-2.8993e-02, -3.7376e-02, 1.1231e-02], - [ 1.7329e-02, -5.8507e-03, 1.9821e-02], - [ 2.0648e-02, -3.9886e-02, 1.6316e-02]], - - [[ 3.2519e-02, 1.6676e-02, 1.2690e-03], - [ 1.6236e-03, 4.4074e-03, -2.0494e-02], - [-3.6117e-02, 1.2012e-02, -2.8950e-02]], - - [[-3.4818e-02, -1.8692e-02, -6.5148e-03], - [-3.8199e-02, -2.1533e-03, -2.6669e-02], - [ 2.0359e-03, -1.0877e-02, 3.2552e-02]], - - ..., - - [[ 2.6173e-03, -3.7495e-02, 8.6743e-03], - [ 4.8354e-04, 4.1075e-02, -6.5880e-03], - [ 3.3915e-02, 3.9410e-03, -1.2893e-02]], - - [[ 2.6528e-02, -4.0759e-02, 1.9229e-02], - [ 2.2432e-02, -3.9180e-03, 2.6232e-02], - [ 1.2603e-02, -3.1149e-03, -1.4234e-02]], - - [[-2.9655e-03, 1.3039e-03, -2.7197e-02], - [ 3.9957e-02, -1.5892e-02, 2.0109e-02], - [ 1.4106e-03, 6.4586e-04, 8.9162e-03]]], - - - [[[ 3.1019e-02, 3.9165e-02, -2.7102e-02], - [-3.8747e-02, -2.9976e-02, -8.2251e-04], - [ 3.1431e-02, -9.7356e-03, 1.1533e-02]], - - [[-8.6869e-03, 3.6680e-02, 1.8349e-02], - [-3.1113e-02, -2.5772e-02, -1.2013e-02], - [ 2.4810e-02, 2.1669e-02, -3.3620e-02]], - - [[-3.0419e-02, 7.3520e-03, -1.9823e-02], - [ 3.8660e-02, 2.6089e-02, 3.0254e-02], - [ 1.4994e-02, 1.0452e-02, 3.4261e-02]], - - ..., - - [[-3.2601e-02, -3.6214e-02, 3.6512e-02], - [-3.7527e-02, -2.9699e-02, 1.5305e-02], - [-2.4764e-02, 2.2672e-02, 2.2486e-02]], - - [[ 1.1033e-02, 3.0824e-02, 2.4714e-02], - [-2.1154e-02, 2.5543e-02, 1.0087e-02], - [ 2.3082e-02, -3.0461e-02, 3.4150e-02]], - - [[-1.8519e-02, -7.6047e-03, 2.7975e-02], - [-6.4077e-03, -2.6562e-02, 9.9592e-03], - [-2.9076e-02, -2.5703e-02, -2.9623e-02]]]], device='cuda:0')), - ('module.module.inc.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.inc.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.inc.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.0.weight', - tensor([[[[ 0.0357, -0.0264, 0.0201], - [ 0.0235, -0.0205, 0.0169], - [ 0.0325, -0.0087, -0.0301]], - - [[-0.0252, 0.0130, 0.0105], - [ 0.0278, 0.0094, -0.0272], - [ 0.0324, 0.0047, 0.0045]], - - [[-0.0352, -0.0399, -0.0170], - [ 0.0144, 0.0158, -0.0144], - [-0.0233, 0.0018, -0.0334]], - - ..., - - [[ 0.0116, -0.0235, -0.0296], - [-0.0242, 0.0119, 0.0299], - [ 0.0114, 0.0182, 0.0288]], - - [[-0.0316, -0.0088, -0.0152], - [-0.0325, -0.0183, -0.0030], - [-0.0355, -0.0339, 0.0363]], - - [[-0.0135, 0.0221, 0.0305], - [-0.0268, 0.0040, -0.0396], - [-0.0201, 0.0218, -0.0349]]], - - - [[[ 0.0126, 0.0043, -0.0306], - [-0.0146, 0.0352, 0.0244], - [ 0.0250, 0.0273, 0.0250]], - - [[-0.0412, 0.0087, 0.0332], - [ 0.0187, -0.0076, -0.0089], - [-0.0151, -0.0058, -0.0293]], - - [[-0.0167, -0.0200, 0.0142], - [-0.0356, 0.0294, 0.0118], - [-0.0244, -0.0215, 0.0074]], - - ..., - - [[-0.0035, 0.0137, -0.0314], - [ 0.0138, -0.0057, 0.0048], - [ 0.0214, -0.0232, -0.0108]], - - [[-0.0412, -0.0090, -0.0090], - [-0.0287, 0.0126, 0.0135], - [ 0.0138, 0.0354, -0.0151]], - - [[ 0.0006, -0.0026, 0.0229], - [ 0.0340, 0.0215, 0.0193], - [-0.0062, 0.0044, 0.0232]]], - - - [[[ 0.0393, 0.0131, -0.0272], - [-0.0268, -0.0212, 0.0276], - [-0.0300, 0.0367, -0.0406]], - - [[ 0.0010, -0.0226, -0.0340], - [ 0.0188, 0.0097, -0.0116], - [ 0.0346, -0.0155, 0.0074]], - - [[ 0.0277, -0.0405, 0.0331], - [ 0.0064, 0.0333, 0.0368], - [ 0.0375, 0.0212, -0.0242]], - - ..., - - [[-0.0069, 0.0186, -0.0329], - [ 0.0099, -0.0293, 0.0133], - [ 0.0385, 0.0099, 0.0152]], - - [[ 0.0165, 0.0133, 0.0077], - [-0.0347, -0.0064, 0.0321], - [-0.0038, -0.0347, 0.0405]], - - [[ 0.0055, -0.0044, -0.0135], - [ 0.0195, 0.0027, 0.0329], - [-0.0107, 0.0344, -0.0313]]], - - - ..., - - - [[[ 0.0298, -0.0407, -0.0166], - [-0.0002, -0.0221, 0.0067], - [ 0.0178, 0.0013, -0.0193]], - - [[-0.0238, 0.0293, 0.0269], - [ 0.0277, 0.0384, 0.0140], - [-0.0363, -0.0101, 0.0253]], - - [[ 0.0334, -0.0225, -0.0067], - [-0.0341, 0.0260, -0.0054], - [ 0.0118, 0.0148, 0.0336]], - - ..., - - [[-0.0390, 0.0067, -0.0146], - [-0.0058, -0.0076, 0.0248], - [-0.0309, -0.0162, -0.0044]], - - [[ 0.0156, 0.0133, -0.0077], - [-0.0084, -0.0258, 0.0351], - [ 0.0133, -0.0063, 0.0344]], - - [[ 0.0333, 0.0093, -0.0372], - [-0.0002, 0.0405, -0.0157], - [-0.0018, -0.0008, 0.0080]]], - - - [[[ 0.0330, -0.0097, -0.0083], - [-0.0216, 0.0057, -0.0085], - [ 0.0082, 0.0023, 0.0381]], - - [[-0.0320, 0.0131, -0.0137], - [-0.0037, 0.0201, -0.0339], - [ 0.0327, 0.0375, -0.0072]], - - [[-0.0085, -0.0173, 0.0102], - [ 0.0381, 0.0038, 0.0299], - [ 0.0261, 0.0366, 0.0206]], - - ..., - - [[-0.0330, -0.0098, -0.0026], - [ 0.0038, 0.0086, 0.0258], - [-0.0036, 0.0356, -0.0383]], - - [[ 0.0014, 0.0289, -0.0069], - [-0.0358, -0.0261, -0.0318], - [-0.0223, -0.0333, 0.0221]], - - [[ 0.0099, -0.0044, 0.0356], - [-0.0416, 0.0245, 0.0219], - [-0.0125, -0.0308, -0.0395]]], - - - [[[-0.0059, -0.0348, -0.0104], - [-0.0281, -0.0408, 0.0101], - [-0.0012, 0.0124, -0.0115]], - - [[-0.0382, -0.0336, 0.0156], - [-0.0337, 0.0008, 0.0405], - [-0.0058, -0.0384, -0.0303]], - - [[-0.0357, 0.0154, 0.0037], - [ 0.0079, 0.0382, -0.0023], - [-0.0099, 0.0091, -0.0170]], - - ..., - - [[-0.0194, 0.0131, -0.0097], - [-0.0112, -0.0016, -0.0009], - [-0.0198, -0.0326, -0.0109]], - - [[ 0.0248, -0.0348, -0.0202], - [-0.0041, -0.0386, -0.0109], - [-0.0228, -0.0399, 0.0372]], - - [[-0.0010, -0.0073, 0.0204], - [-0.0288, 0.0141, 0.0010], - [-0.0160, -0.0138, 0.0360]]]], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.1305e-02, -1.2684e-03, 2.4892e-02], - [-2.6919e-02, -1.1080e-02, 6.1028e-04], - [-6.9626e-03, 2.4179e-02, 7.0370e-03]], - - [[-8.0535e-03, -1.8495e-04, -2.7226e-02], - [-1.6500e-02, 3.6307e-03, 2.3883e-02], - [-7.6892e-03, 2.6147e-02, 1.8880e-02]], - - [[-6.3356e-04, -7.4601e-03, -7.9877e-03], - [ 1.3430e-02, -1.9490e-02, 3.8737e-03], - [-1.6122e-02, -1.8464e-02, 2.0742e-02]], - - ..., - - [[ 1.8362e-03, -1.1564e-02, -2.8767e-02], - [ 5.5608e-03, 6.5534e-03, 1.5489e-02], - [-1.3676e-02, -2.4228e-02, 1.2859e-02]], - - [[ 1.7046e-02, 3.1059e-03, -1.3043e-02], - [-1.1144e-02, 8.5697e-03, -9.9781e-03], - [ 6.2510e-03, -2.7031e-02, -8.6106e-03]], - - [[ 2.8901e-02, 1.9356e-02, -2.5723e-02], - [-2.0941e-02, 1.2509e-02, 2.8496e-02], - [-1.6640e-02, -3.5848e-03, -1.0853e-02]]], - - - [[[ 1.2726e-02, -1.6195e-02, 1.4709e-02], - [-2.0562e-02, -2.8356e-02, 1.0373e-02], - [ 1.6941e-02, -1.7723e-02, 2.5551e-02]], - - [[-1.9462e-02, 2.7471e-02, -1.6930e-02], - [-2.7676e-03, -1.4025e-03, 1.7487e-02], - [ 1.6080e-02, 2.9447e-02, -1.8378e-02]], - - [[ 2.8415e-03, -1.0617e-02, -1.0754e-03], - [ 2.2315e-02, -1.2144e-02, -1.7454e-02], - [-2.4725e-02, -1.4872e-02, 1.2383e-02]], - - ..., - - [[ 2.1383e-02, -2.6270e-02, -1.2159e-02], - [-2.1438e-02, -2.4603e-02, -1.3974e-02], - [-2.2166e-02, 2.9069e-02, 1.0996e-02]], - - [[ 2.6262e-02, -3.3151e-03, 2.6866e-02], - [-1.1902e-02, 2.3779e-03, 2.6081e-02], - [ 5.4771e-03, 7.5126e-04, -8.3137e-03]], - - [[ 2.5385e-02, 7.2457e-03, -1.6735e-02], - [-4.7629e-03, -1.2607e-02, -4.5772e-03], - [ 1.6854e-02, 1.9901e-02, 2.8703e-02]]], - - - [[[-2.8001e-02, -4.4546e-04, -2.0191e-02], - [ 2.4830e-02, -2.2498e-02, -2.0728e-02], - [-1.0464e-02, 2.7569e-02, 2.9056e-02]], - - [[-2.7124e-02, -7.6276e-03, 2.4910e-02], - [-5.0865e-03, -1.3039e-02, -1.9636e-02], - [-2.0727e-02, -2.3310e-02, -1.5865e-02]], - - [[ 7.5711e-03, 7.3599e-03, -2.2980e-02], - [-2.5551e-02, 2.2718e-02, 1.5489e-02], - [-3.0655e-04, 1.2903e-02, -2.2033e-02]], - - ..., - - [[-1.5014e-02, -7.5347e-04, 1.6599e-03], - [-5.4850e-03, 1.3427e-02, 2.9824e-03], - [ 2.4041e-02, 1.7558e-03, 1.0491e-02]], - - [[-1.7517e-02, 2.2218e-02, 2.1117e-02], - [-8.5116e-05, 2.7633e-02, 1.1950e-03], - [ 2.3484e-02, -2.0629e-02, -7.9562e-03]], - - [[ 6.6841e-03, -2.7769e-02, -2.2987e-02], - [-2.4637e-02, 2.2629e-02, -1.2457e-02], - [-1.0986e-02, -1.6586e-02, -4.0791e-03]]], - - - ..., - - - [[[ 8.6628e-03, 2.6667e-02, 6.7481e-03], - [-1.4348e-02, -1.9016e-02, 2.1977e-02], - [ 1.1526e-02, 2.0264e-03, -1.9429e-02]], - - [[-1.5399e-02, 2.4140e-02, 1.7281e-02], - [-5.1553e-05, 2.7146e-03, -2.2730e-02], - [-2.2137e-02, 1.5756e-02, 9.6129e-03]], - - [[-5.2356e-03, 1.8795e-02, 1.4753e-02], - [-2.9235e-02, -2.4725e-02, -9.9595e-03], - [-2.5816e-02, -1.2593e-02, -1.4906e-02]], - - ..., - - [[-5.1329e-04, 2.4464e-02, 1.0491e-02], - [ 1.6588e-03, -1.9864e-02, -2.4729e-02], - [-5.7917e-03, 1.2495e-02, 7.5220e-03]], - - [[ 1.5368e-02, -2.5456e-02, -1.4819e-02], - [-2.5614e-02, -2.3670e-03, 2.6447e-02], - [-5.4125e-03, -4.6167e-03, -7.2054e-04]], - - [[-1.7071e-02, -2.6587e-03, 2.1725e-02], - [-2.8988e-02, 3.1809e-03, 1.3815e-03], - [ 6.4158e-03, -2.6444e-04, 1.8910e-02]]], - - - [[[ 2.5009e-02, 4.4661e-03, -2.5017e-02], - [ 6.8237e-03, 1.3778e-02, 6.8838e-03], - [-1.5440e-02, -1.2293e-03, 2.2054e-02]], - - [[-1.6465e-02, 1.3906e-02, 2.9242e-02], - [ 2.2392e-02, -6.8427e-03, -2.1006e-02], - [ 2.3828e-02, -1.8528e-02, 4.6238e-03]], - - [[ 2.6324e-02, -3.9792e-03, -2.8550e-02], - [ 9.2739e-03, 8.2617e-03, -2.5574e-02], - [ 1.6078e-02, 1.6129e-02, 6.8392e-03]], - - ..., - - [[ 2.7127e-02, -1.3369e-02, 8.5266e-03], - [-1.0530e-02, -2.0817e-02, -8.6817e-03], - [-2.9038e-02, -2.4825e-03, 1.3813e-02]], - - [[ 1.2809e-02, -2.7485e-02, -2.8767e-02], - [-5.6553e-03, 1.9724e-02, 1.1964e-02], - [ 5.6818e-03, 1.9974e-02, -1.8658e-02]], - - [[ 2.8031e-02, -2.4776e-02, -3.0622e-03], - [ 1.4898e-02, 2.7475e-03, -2.2119e-02], - [ 5.8204e-03, 6.9012e-03, -2.6735e-02]]], - - - [[[ 9.7910e-03, 1.7056e-02, -4.8750e-03], - [ 3.8653e-03, 9.2350e-03, -2.7748e-02], - [ 2.4542e-02, -9.4870e-03, 2.7431e-02]], - - [[ 1.5725e-03, 5.4433e-03, 6.2727e-03], - [ 2.9122e-02, 1.9450e-02, -1.4450e-02], - [ 7.3775e-03, 2.3615e-02, -1.2452e-02]], - - [[-7.7901e-04, 5.2408e-03, 1.3440e-02], - [ 1.1745e-02, -2.4794e-02, 5.6418e-03], - [ 1.4150e-02, -1.9262e-02, -6.3717e-04]], - - ..., - - [[ 4.6180e-03, 2.1094e-03, -2.5070e-02], - [-1.9577e-02, 2.3995e-02, -1.5351e-02], - [-2.1875e-02, -2.0034e-03, 3.7910e-03]], - - [[ 2.1114e-03, 2.1738e-02, 1.3168e-03], - [-9.2969e-03, 1.9882e-02, 5.0677e-03], - [ 6.9171e-03, 2.1555e-02, -1.1559e-02]], - - [[-2.8176e-02, -2.6783e-02, 2.4445e-02], - [ 1.4733e-02, 4.4278e-03, 7.2822e-03], - [-2.4972e-02, -1.4935e-02, 2.7857e-02]]]], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.down1.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-2.0874e-03, 2.8328e-02, 3.8197e-03], - [ 2.0103e-02, -2.4530e-02, 3.5383e-03], - [ 1.2657e-02, 2.5045e-02, 5.3281e-03]], - - [[ 9.3871e-03, 2.5844e-02, -1.4631e-02], - [ 2.7466e-02, -1.0389e-02, 1.5178e-02], - [ 2.8453e-02, 1.3451e-02, -1.1607e-03]], - - [[ 2.0450e-02, 1.3948e-02, -1.8822e-02], - [-1.6178e-03, 2.4138e-02, 1.6494e-02], - [-2.7684e-02, -1.6600e-02, 2.5942e-03]], - - ..., - - [[-2.5010e-03, 2.1981e-02, 1.0307e-02], - [ 1.0725e-02, 2.8690e-02, -1.7391e-02], - [ 3.5500e-03, 2.0341e-03, 5.9864e-03]], - - [[-8.7539e-03, 1.3636e-02, 2.7444e-02], - [-5.3241e-03, 1.4782e-02, -1.6061e-02], - [ 2.8436e-02, -2.6700e-02, -5.3704e-03]], - - [[-2.3932e-02, 6.0354e-03, 2.0279e-02], - [-2.7523e-02, -2.8895e-02, 2.0104e-02], - [-6.3520e-03, 8.0765e-03, 2.4935e-03]]], - - - [[[-1.0771e-02, -3.8036e-03, -2.3648e-02], - [-1.3159e-02, 2.4382e-02, 2.5068e-02], - [-1.8793e-02, -2.5927e-02, 1.6405e-02]], - - [[ 4.6219e-03, 2.3189e-02, -1.0743e-02], - [ 2.8896e-02, -2.2556e-02, 5.3712e-03], - [-8.8788e-03, -8.3982e-03, -9.5629e-03]], - - [[-2.3292e-02, 1.9044e-02, 1.8797e-03], - [-1.7992e-02, -2.8691e-02, 1.8576e-03], - [-2.4593e-02, 8.3165e-03, -5.6803e-03]], - - ..., - - [[-2.7325e-02, -1.6579e-02, -2.7656e-02], - [-1.4223e-02, 6.2641e-03, -2.7416e-02], - [-1.8046e-02, 1.1367e-02, -1.2150e-02]], - - [[-3.4729e-03, 5.4115e-04, -1.9539e-02], - [ 1.6914e-02, -1.1351e-02, 2.0686e-02], - [-1.0540e-02, -2.7865e-02, 3.4599e-03]], - - [[-1.5403e-02, -5.0929e-03, -2.0951e-02], - [ 1.8758e-02, -1.5846e-02, -2.6030e-02], - [ 2.3687e-02, -2.6410e-02, 5.7963e-03]]], - - - [[[-2.6278e-02, -1.2930e-02, -1.6344e-02], - [ 8.9017e-03, -1.8674e-02, -1.6698e-02], - [-1.0313e-02, 9.8180e-03, 1.0110e-02]], - - [[-2.1049e-02, 1.4577e-02, -1.8113e-02], - [-2.0648e-02, -1.4387e-02, -2.4280e-04], - [-2.0775e-02, -4.0661e-03, 2.7782e-02]], - - [[-2.7178e-02, 4.2496e-03, -2.3201e-02], - [ 1.0937e-02, -6.5350e-03, -2.3540e-02], - [-2.9455e-02, 2.3027e-02, -2.7718e-02]], - - ..., - - [[-2.1814e-02, 1.5335e-02, -2.3714e-02], - [-2.8257e-02, 2.3738e-02, -1.3762e-02], - [-3.1294e-03, 9.6518e-03, 6.7151e-03]], - - [[-2.5689e-02, 4.9199e-03, 1.6813e-02], - [ 2.7413e-02, -2.5757e-02, -2.6320e-02], - [ 2.8428e-02, -1.9982e-02, -6.2184e-03]], - - [[-4.9595e-03, -2.2561e-02, 2.1508e-02], - [ 6.1043e-03, -1.9141e-02, -1.6917e-02], - [-2.2802e-02, -7.2276e-03, 1.1010e-02]]], - - - ..., - - - [[[-1.8587e-04, 2.5234e-02, 1.2862e-02], - [ 6.4087e-03, 2.9456e-03, -6.2891e-03], - [ 1.3295e-02, 1.1122e-02, -3.8489e-03]], - - [[ 2.4627e-02, -8.6374e-03, 9.6317e-03], - [-4.4341e-03, -2.0696e-03, 5.3607e-05], - [ 2.7382e-02, -1.1736e-03, -2.8442e-03]], - - [[ 7.9895e-03, -6.4228e-03, 9.2783e-03], - [ 1.0661e-03, -2.7210e-02, 2.9449e-02], - [ 2.8375e-03, -2.2452e-02, -3.4423e-03]], - - ..., - - [[ 7.1594e-03, -2.7026e-02, -6.7921e-03], - [-1.5202e-02, -7.0004e-04, -6.5862e-03], - [ 2.7967e-02, 2.5300e-02, 5.7218e-03]], - - [[ 1.9714e-02, 2.5212e-02, 2.6632e-02], - [ 3.6115e-03, -2.2397e-02, -1.0878e-02], - [-1.3762e-02, 4.6104e-04, 1.6057e-02]], - - [[ 2.5034e-02, -2.9420e-02, -1.7739e-02], - [ 1.0064e-02, -2.8722e-02, -1.6836e-02], - [ 1.7448e-02, 2.8111e-02, 1.4150e-03]]], - - - [[[-1.5742e-02, -1.3421e-02, 2.7663e-02], - [-1.5744e-02, 2.0141e-03, 1.1419e-03], - [ 2.5981e-02, 1.0222e-02, -1.5587e-02]], - - [[ 1.3669e-02, 5.2103e-03, -7.6013e-03], - [-1.6173e-02, 5.6269e-04, 2.4350e-03], - [ 2.4261e-03, 2.5788e-02, -2.8097e-02]], - - [[-1.4888e-02, -1.7731e-02, -6.4337e-03], - [ 2.2471e-02, 2.3679e-04, -1.1437e-02], - [-5.8912e-03, 1.0241e-02, 1.8909e-02]], - - ..., - - [[-1.4776e-02, 2.1398e-02, 8.8336e-04], - [-3.3876e-03, 9.3768e-03, -5.3336e-03], - [-4.4843e-03, -5.7139e-03, -6.8183e-03]], - - [[-2.0888e-02, -2.4299e-02, -1.6261e-02], - [-2.0847e-02, 1.3012e-02, 2.1894e-02], - [-4.3075e-03, 2.1090e-02, 2.2750e-02]], - - [[-1.7861e-02, -2.5487e-02, -9.7013e-03], - [-2.8849e-03, -2.6374e-02, -2.2423e-02], - [ 3.2294e-03, 1.0469e-02, -2.7943e-02]]], - - - [[[ 4.1885e-03, -2.7628e-02, -2.5770e-02], - [ 1.4383e-02, -3.2527e-03, -2.1710e-02], - [-1.4146e-02, 7.5708e-03, -1.2968e-02]], - - [[ 6.4110e-03, 1.5356e-02, -1.1846e-02], - [ 2.1303e-02, 6.4434e-03, -2.6370e-02], - [ 1.7484e-02, 1.9423e-02, 2.9357e-02]], - - [[ 3.5598e-03, 2.6142e-02, -2.6987e-02], - [ 9.4496e-03, 1.8193e-02, 1.0256e-02], - [ 3.0655e-03, 2.6695e-03, -9.7217e-04]], - - ..., - - [[ 1.2180e-02, 2.1096e-02, -2.4789e-02], - [ 6.3251e-03, 3.0475e-03, -6.8353e-03], - [ 1.8787e-02, -9.2431e-03, 1.7185e-02]], - - [[-1.1940e-02, 1.8412e-02, 1.7622e-02], - [ 2.1504e-02, 2.3440e-02, 1.1492e-02], - [-1.6089e-02, -1.5441e-02, 2.1249e-02]], - - [[-2.3543e-02, -2.0001e-02, -2.0346e-02], - [ 2.0520e-02, 2.9473e-03, -1.2873e-02], - [ 1.3080e-02, -1.3335e-02, 2.4488e-02]]]], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-0.0199, -0.0207, -0.0025], - [-0.0202, 0.0202, -0.0180], - [-0.0126, 0.0164, -0.0123]], - - [[ 0.0062, -0.0141, 0.0168], - [ 0.0078, 0.0006, -0.0096], - [ 0.0036, -0.0188, 0.0195]], - - [[-0.0073, -0.0065, -0.0040], - [ 0.0086, 0.0105, 0.0089], - [-0.0055, 0.0144, -0.0161]], - - ..., - - [[ 0.0131, -0.0028, -0.0143], - [-0.0057, -0.0096, -0.0171], - [-0.0130, -0.0047, -0.0005]], - - [[-0.0046, -0.0177, 0.0125], - [-0.0102, 0.0154, 0.0072], - [ 0.0206, 0.0169, -0.0156]], - - [[ 0.0036, 0.0074, 0.0056], - [ 0.0112, -0.0127, -0.0147], - [ 0.0001, 0.0135, 0.0017]]], - - - [[[-0.0075, -0.0151, 0.0206], - [ 0.0001, -0.0105, -0.0072], - [ 0.0066, 0.0189, 0.0178]], - - [[ 0.0086, -0.0003, 0.0005], - [ 0.0185, -0.0089, -0.0045], - [ 0.0166, -0.0010, 0.0182]], - - [[-0.0107, -0.0202, 0.0050], - [-0.0029, -0.0139, 0.0134], - [ 0.0037, 0.0136, -0.0140]], - - ..., - - [[ 0.0171, 0.0028, 0.0002], - [ 0.0165, 0.0112, 0.0014], - [-0.0089, -0.0016, 0.0104]], - - [[-0.0161, -0.0097, -0.0042], - [ 0.0174, 0.0107, 0.0100], - [-0.0053, -0.0070, 0.0113]], - - [[-0.0016, -0.0070, 0.0061], - [ 0.0017, 0.0160, 0.0013], - [ 0.0057, 0.0200, -0.0160]]], - - - [[[-0.0060, -0.0105, -0.0198], - [-0.0150, -0.0083, 0.0156], - [-0.0090, 0.0120, -0.0199]], - - [[ 0.0127, 0.0145, -0.0122], - [ 0.0110, -0.0001, -0.0018], - [ 0.0039, 0.0206, -0.0076]], - - [[ 0.0101, 0.0061, -0.0136], - [ 0.0194, -0.0136, 0.0016], - [-0.0007, 0.0173, 0.0011]], - - ..., - - [[-0.0134, -0.0127, -0.0165], - [ 0.0041, -0.0118, 0.0110], - [ 0.0044, 0.0060, 0.0036]], - - [[ 0.0056, -0.0185, 0.0055], - [ 0.0114, -0.0050, -0.0185], - [ 0.0116, -0.0140, -0.0148]], - - [[ 0.0145, 0.0188, -0.0130], - [ 0.0065, -0.0171, 0.0036], - [-0.0037, -0.0078, 0.0077]]], - - - ..., - - - [[[-0.0090, 0.0069, -0.0124], - [-0.0150, -0.0065, 0.0094], - [-0.0195, -0.0163, -0.0144]], - - [[-0.0142, 0.0055, -0.0013], - [-0.0149, -0.0092, 0.0063], - [ 0.0007, 0.0089, 0.0060]], - - [[-0.0055, -0.0047, -0.0065], - [-0.0140, 0.0113, -0.0194], - [-0.0049, 0.0079, 0.0079]], - - ..., - - [[-0.0111, -0.0127, 0.0139], - [ 0.0075, -0.0173, -0.0109], - [ 0.0204, -0.0063, -0.0174]], - - [[ 0.0198, 0.0142, 0.0200], - [ 0.0188, 0.0201, -0.0102], - [ 0.0027, -0.0103, -0.0160]], - - [[ 0.0090, 0.0116, 0.0114], - [-0.0037, -0.0078, 0.0121], - [-0.0192, -0.0149, -0.0202]]], - - - [[[ 0.0045, -0.0102, 0.0195], - [-0.0163, -0.0012, 0.0005], - [ 0.0079, -0.0045, 0.0198]], - - [[ 0.0181, 0.0146, -0.0039], - [ 0.0095, 0.0106, -0.0055], - [ 0.0028, 0.0103, 0.0006]], - - [[ 0.0039, -0.0051, -0.0071], - [-0.0123, -0.0141, 0.0050], - [-0.0146, 0.0068, 0.0163]], - - ..., - - [[-0.0144, 0.0072, -0.0097], - [-0.0070, 0.0141, 0.0089], - [-0.0034, 0.0030, 0.0124]], - - [[ 0.0143, -0.0146, -0.0182], - [-0.0080, 0.0061, -0.0181], - [ 0.0166, 0.0175, -0.0116]], - - [[-0.0095, -0.0014, -0.0191], - [ 0.0184, -0.0074, -0.0144], - [ 0.0201, -0.0136, -0.0001]]], - - - [[[-0.0022, -0.0024, 0.0035], - [-0.0075, -0.0206, 0.0173], - [-0.0160, 0.0207, 0.0060]], - - [[-0.0073, 0.0075, -0.0149], - [-0.0112, 0.0081, -0.0034], - [-0.0176, -0.0169, 0.0041]], - - [[-0.0040, 0.0199, -0.0174], - [ 0.0103, 0.0153, -0.0109], - [-0.0044, -0.0160, -0.0072]], - - ..., - - [[ 0.0142, -0.0045, 0.0044], - [-0.0134, -0.0153, -0.0110], - [-0.0178, 0.0051, -0.0051]], - - [[ 0.0090, 0.0175, 0.0111], - [ 0.0201, -0.0061, 0.0081], - [-0.0037, 0.0166, 0.0074]], - - [[-0.0069, 0.0019, -0.0200], - [-0.0047, -0.0145, 0.0192], - [-0.0100, 0.0121, -0.0193]]]], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down2.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-4.6348e-03, 9.8509e-03, 1.6142e-02], - [ 2.6825e-05, -8.4992e-03, 3.6535e-04], - [-2.0749e-02, -2.7181e-03, 1.4475e-02]], - - [[ 1.0194e-02, 6.9748e-03, 1.3849e-02], - [ 1.4200e-03, 2.5024e-03, 1.5259e-02], - [ 1.1671e-02, 4.0497e-03, 8.7697e-03]], - - [[-4.4309e-03, -1.1845e-02, -1.6037e-02], - [-7.8910e-03, -9.7038e-03, 5.6008e-03], - [-1.6987e-02, 7.1697e-03, 1.7236e-02]], - - ..., - - [[-1.1635e-02, 1.8610e-02, 1.4086e-02], - [-1.1576e-02, -1.9610e-03, -1.8455e-02], - [-8.6874e-03, -1.1485e-02, -5.8817e-03]], - - [[-1.3743e-02, 1.2879e-02, 2.2404e-03], - [-6.8730e-03, 1.0492e-02, 8.4602e-03], - [ 1.9366e-03, -1.0892e-02, 9.0133e-03]], - - [[-6.9619e-03, -1.7941e-02, -1.1306e-02], - [-6.8960e-03, -6.8894e-03, -6.9923e-04], - [ 1.0807e-02, 1.8476e-02, 1.9441e-02]]], - - - [[[ 6.4426e-03, 7.5100e-03, 6.7503e-03], - [-1.8439e-02, 1.4277e-02, -1.0381e-02], - [-1.7296e-02, -1.2204e-02, 5.2923e-03]], - - [[-6.8046e-03, 6.3742e-03, -1.1632e-02], - [ 4.2213e-03, 2.0774e-02, -3.7589e-03], - [ 1.6312e-02, 7.4283e-04, 1.2614e-02]], - - [[-6.7564e-03, -1.0808e-02, -1.6746e-02], - [-6.2140e-03, 9.3120e-03, -9.2284e-03], - [ 2.8789e-03, 1.2397e-03, 1.5193e-02]], - - ..., - - [[-1.4065e-02, -4.0645e-03, -1.4819e-02], - [ 7.9262e-03, -1.4440e-02, -1.3676e-02], - [ 8.2918e-04, 1.0951e-02, 6.6675e-03]], - - [[ 1.8929e-02, -1.6932e-02, 7.8811e-03], - [ 1.6661e-02, -1.4852e-02, -6.1440e-03], - [-4.3739e-03, 1.0890e-02, 1.2552e-03]], - - [[ 1.6674e-02, 8.4053e-03, -5.2151e-03], - [-1.8711e-02, -6.0464e-04, 4.8782e-03], - [-1.0599e-02, -8.5500e-03, -4.4493e-04]]], - - - [[[ 7.4150e-03, -1.7817e-02, -9.8810e-03], - [ 1.5139e-02, -5.4702e-03, 3.1069e-03], - [ 1.6121e-02, -2.4298e-03, -3.4243e-03]], - - [[ 5.2642e-03, -1.7880e-02, -1.8678e-02], - [ 2.9048e-03, 1.0568e-02, -2.8701e-04], - [-4.0345e-05, -2.8312e-03, 6.9242e-03]], - - [[ 1.2557e-02, 1.3475e-02, -1.1946e-02], - [ 1.0504e-02, -1.1848e-02, 1.4417e-02], - [-1.8312e-02, 1.1722e-02, -6.9120e-03]], - - ..., - - [[ 1.9895e-02, 1.5509e-02, 1.9991e-02], - [-1.5190e-02, -1.9972e-02, -1.3091e-02], - [-1.1537e-02, -6.8988e-03, 1.1122e-02]], - - [[ 1.0277e-02, -9.5677e-03, 1.4165e-02], - [ 5.0890e-03, 1.1992e-02, 2.0542e-02], - [-9.9942e-04, 1.1082e-02, -5.1328e-03]], - - [[ 1.0213e-02, -4.6551e-03, -5.2989e-03], - [ 1.5165e-02, -1.7655e-02, 5.5892e-03], - [ 1.1311e-02, -1.2807e-02, -1.2253e-02]]], - - - ..., - - - [[[ 1.4459e-02, 4.5380e-04, -2.9677e-03], - [ 1.8889e-02, -1.6052e-02, -1.5562e-02], - [ 1.3935e-03, -1.6170e-02, 2.0204e-02]], - - [[ 1.0080e-02, -3.7539e-03, -1.5059e-02], - [ 6.8971e-03, -8.5807e-03, 1.5525e-02], - [ 1.4992e-03, -7.8594e-03, 7.5005e-03]], - - [[ 3.7703e-03, 9.6159e-03, 1.6808e-02], - [-1.1511e-02, -1.9614e-02, -1.7621e-02], - [ 6.5007e-03, -1.5883e-02, -1.3063e-02]], - - ..., - - [[ 1.1717e-02, 1.3965e-03, -5.3536e-03], - [ 1.4582e-02, -1.8533e-03, -1.5276e-02], - [-2.0322e-02, -1.0361e-02, -6.1722e-03]], - - [[ 5.0393e-04, 3.0661e-03, -9.3391e-03], - [-5.0653e-03, 1.3716e-02, 9.7900e-03], - [-2.0547e-02, 1.3067e-02, 1.6991e-03]], - - [[-8.7317e-03, 1.5140e-02, -9.8445e-03], - [-2.9895e-03, 1.0854e-02, -7.8243e-03], - [ 1.5019e-03, 1.9270e-02, 9.2994e-03]]], - - - [[[-3.2868e-03, -1.6655e-03, 1.3082e-02], - [ 7.1859e-03, -1.9157e-03, -3.5394e-03], - [-1.9397e-02, 5.5216e-03, -1.8486e-02]], - - [[ 9.8068e-03, 2.6197e-03, 4.8447e-04], - [ 1.5565e-02, 1.1252e-02, 1.8660e-02], - [ 3.1310e-03, 6.5078e-03, -1.4506e-02]], - - [[-1.5900e-02, -3.8698e-03, 4.6403e-03], - [ 1.0163e-02, 1.0891e-02, 1.9025e-02], - [-7.0364e-03, 1.0454e-02, 7.3635e-03]], - - ..., - - [[ 1.5563e-02, -1.9394e-02, 1.5875e-03], - [-4.1397e-03, -7.3719e-04, -8.6707e-03], - [-1.5182e-02, 1.4803e-02, -1.7555e-02]], - - [[-7.9233e-04, 1.1101e-03, 1.7634e-03], - [ 1.5103e-02, -1.4403e-02, 1.4855e-02], - [-7.4607e-03, 7.4488e-03, -1.7282e-02]], - - [[ 1.4080e-02, 1.6888e-02, 1.6374e-02], - [ 7.7976e-03, -6.2802e-03, -3.1626e-03], - [ 2.0682e-02, -1.9079e-02, 1.3276e-02]]], - - - [[[ 1.8058e-02, -9.1462e-03, -7.2015e-03], - [-6.4691e-03, -2.9027e-03, 9.6589e-03], - [-1.3747e-02, 1.9787e-02, 1.9956e-02]], - - [[-1.1408e-02, -2.4681e-05, 7.7289e-03], - [ 1.9633e-02, -8.2515e-03, 1.3016e-02], - [-1.8417e-02, 1.8677e-02, -1.1818e-02]], - - [[ 1.9430e-02, 1.0222e-02, -5.9156e-03], - [ 1.5036e-02, 9.4860e-03, 2.0289e-03], - [-6.1385e-03, -6.8786e-03, -1.0498e-02]], - - ..., - - [[ 1.8626e-02, -4.7810e-03, 1.8702e-02], - [-7.9554e-03, -1.7242e-02, -1.2626e-03], - [ 1.9328e-02, -5.6285e-03, -1.1736e-02]], - - [[-4.1653e-04, -1.8020e-02, -1.2647e-02], - [-4.7124e-03, 3.7225e-03, 3.3474e-03], - [-2.6790e-03, 6.2666e-03, 3.8707e-03]], - - [[ 1.9958e-03, -6.2181e-03, -1.5993e-02], - [ 4.3567e-03, 2.8269e-03, 2.0313e-02], - [-1.6953e-02, -1.2477e-02, -6.3685e-03]]]], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.3.weight', - tensor([[[[ 1.3495e-02, 1.1336e-02, 3.2999e-03], - [ 1.0248e-02, 4.9058e-03, 1.6721e-03], - [ 1.4577e-02, 1.2254e-02, -1.0996e-02]], - - [[ 2.8387e-03, -1.2857e-02, -6.3248e-04], - [ 1.0179e-02, -7.9369e-03, 9.4359e-03], - [ 2.8751e-03, -1.1316e-02, -2.7018e-03]], - - [[ 1.3239e-02, 1.3039e-03, -1.3213e-02], - [-8.4236e-03, 2.3438e-03, -1.4353e-02], - [ 9.7540e-03, 7.3673e-03, 9.9629e-04]], - - ..., - - [[-1.2715e-02, -5.7416e-03, 8.1590e-04], - [ 1.2467e-02, 5.0082e-03, -9.3793e-03], - [-1.0866e-02, 6.1197e-03, 2.4678e-03]], - - [[-1.3211e-02, -6.7648e-03, 1.4521e-02], - [-5.5102e-03, -5.2198e-03, 1.0626e-02], - [-1.1742e-02, -6.2968e-03, -3.1413e-03]], - - [[ 5.9503e-04, -9.2838e-03, 2.2524e-03], - [ 4.4587e-03, -6.3728e-04, -1.4285e-02], - [-5.1423e-03, -5.7166e-03, 1.2934e-02]]], - - - [[[ 1.8463e-03, -5.4794e-04, -1.8946e-03], - [ 9.7586e-04, 3.5177e-03, -4.0504e-03], - [-6.2299e-03, 5.2996e-03, 1.3720e-02]], - - [[-5.9090e-03, 1.6445e-03, 2.7570e-03], - [-9.9673e-04, -1.0245e-02, 5.6605e-03], - [ 1.1391e-02, -1.1658e-02, -1.1734e-02]], - - [[-1.1735e-02, 2.4595e-03, 5.7827e-03], - [ 7.1670e-03, -1.6270e-03, 1.0687e-02], - [ 6.0396e-03, -7.3033e-04, -8.5946e-03]], - - ..., - - [[ 1.1671e-02, 1.3118e-02, -1.3291e-02], - [ 6.1538e-03, -6.0592e-04, 6.6185e-03], - [ 1.2829e-03, -1.3731e-02, 1.4932e-03]], - - [[-7.4605e-03, 6.8828e-04, -1.2302e-04], - [-8.1735e-03, 1.2001e-02, 7.8193e-03], - [ 2.0528e-03, -6.3210e-03, 1.3449e-02]], - - [[ 2.9136e-03, 6.6908e-03, -3.7520e-03], - [ 9.3340e-03, -4.1290e-03, -1.4161e-02], - [-5.5939e-03, 5.1468e-03, 7.5768e-05]]], - - - [[[ 7.9902e-03, 8.0955e-03, 1.0381e-02], - [ 6.6680e-03, 2.9378e-03, 6.6944e-03], - [-2.3877e-03, -4.8883e-03, 8.5533e-03]], - - [[-1.2371e-02, -1.2348e-02, 4.0223e-03], - [-6.9362e-03, -1.0553e-02, 5.3495e-03], - [ 4.4429e-04, 5.7790e-03, -2.5581e-03]], - - [[ 2.1132e-03, -1.0715e-02, 3.1263e-03], - [ 1.4578e-02, -4.7421e-03, -4.1220e-03], - [ 7.7216e-03, -7.0857e-03, -4.0999e-03]], - - ..., - - [[-1.2722e-02, 4.8952e-03, 3.1216e-03], - [-3.6589e-03, 3.9157e-03, 7.6172e-05], - [ 6.6556e-03, 1.3619e-02, -1.0715e-02]], - - [[-8.3624e-03, 2.8966e-03, 7.7819e-03], - [ 9.6693e-03, -1.3035e-02, -1.2682e-02], - [-1.2393e-02, 1.4095e-02, -9.9444e-03]], - - [[-2.6372e-03, -9.4880e-03, -4.2093e-03], - [ 2.4768e-03, 5.2376e-03, -1.6081e-03], - [ 1.4001e-03, 8.7849e-03, -6.4915e-03]]], - - - ..., - - - [[[-6.1331e-03, -1.0245e-02, 5.5679e-03], - [-1.3925e-02, -5.4960e-03, -6.4326e-03], - [ 1.0665e-03, 9.3625e-03, -1.0900e-02]], - - [[-1.2820e-02, -1.4185e-02, 7.6603e-03], - [ 5.5901e-03, -7.7663e-03, -1.3632e-02], - [-7.8664e-03, 3.8328e-03, -6.1660e-03]], - - [[ 2.2009e-03, 1.2656e-02, -5.1460e-03], - [-7.3644e-03, -1.2076e-03, 1.9836e-03], - [-1.4580e-03, -8.4020e-04, 1.0106e-02]], - - ..., - - [[ 7.8239e-03, 8.2156e-03, 5.3135e-03], - [ 7.6519e-03, 2.5644e-03, 9.5596e-03], - [ 1.2521e-02, 7.5805e-03, -1.3987e-02]], - - [[ 1.0951e-02, 7.9635e-04, -6.1090e-03], - [ 7.5488e-03, 1.2158e-02, -1.4382e-02], - [-3.4198e-03, -3.9887e-03, -3.8113e-03]], - - [[-1.1689e-02, 9.5688e-03, -5.1517e-03], - [-1.1460e-02, -4.0730e-03, -5.6413e-03], - [ 7.0657e-03, 2.6805e-03, -5.1478e-03]]], - - - [[[-9.6095e-03, -1.3585e-03, -7.0119e-03], - [ 9.6654e-03, 1.0712e-02, 1.0401e-02], - [-3.5123e-03, 1.3850e-02, 1.0464e-02]], - - [[-1.1702e-02, -7.7455e-03, -5.3939e-03], - [-1.2093e-02, -8.4871e-03, -3.2977e-03], - [-1.0420e-02, 8.9802e-03, -4.9594e-03]], - - [[-1.2320e-02, 2.4707e-03, -2.3200e-03], - [-3.9590e-03, 1.1381e-02, -3.2109e-03], - [-1.9178e-03, -1.3853e-02, -4.3691e-03]], - - ..., - - [[ 1.0142e-02, 1.3061e-02, 1.1623e-02], - [-5.8694e-03, -6.4008e-04, 1.3774e-02], - [ 6.2873e-03, 3.2907e-03, -8.4393e-03]], - - [[ 3.5045e-03, 4.6928e-03, 1.1195e-02], - [ 5.2034e-03, -9.1595e-03, 1.1639e-02], - [-7.8218e-03, 7.5058e-03, -1.4309e-02]], - - [[-2.4525e-03, -3.6981e-03, 1.1964e-02], - [-1.2757e-02, -5.8314e-03, -1.1045e-02], - [ 6.1323e-03, 1.4707e-02, -9.2333e-03]]], - - - [[[ 5.0627e-03, 1.4049e-02, 7.1501e-03], - [-1.3210e-02, 1.1269e-02, 2.2428e-03], - [-9.7158e-03, 5.5631e-03, -1.2279e-02]], - - [[-9.5874e-03, -5.4147e-04, 1.4689e-02], - [ 4.4917e-03, -1.3910e-02, -3.7383e-04], - [-7.5597e-03, 9.3203e-03, -7.5512e-03]], - - [[-1.4322e-02, -1.1102e-02, 1.1979e-02], - [ 6.4091e-03, -1.3175e-02, 2.6744e-04], - [ 1.1095e-03, 6.2741e-03, 5.1492e-04]], - - ..., - - [[ 1.3908e-02, 9.8417e-03, 9.4988e-03], - [ 1.1376e-02, 1.9947e-04, -8.0265e-03], - [-1.1771e-02, -1.0298e-02, -2.5397e-03]], - - [[-2.3932e-03, 1.3351e-02, 1.0970e-02], - [ 1.2986e-02, 3.9482e-03, -8.2351e-03], - [-1.0508e-02, -3.3115e-03, -8.0658e-03]], - - [[-2.9153e-03, 1.4376e-02, -3.0430e-03], - [ 1.3600e-02, -2.1507e-03, -4.3007e-03], - [-3.6526e-03, 8.3328e-03, 8.7380e-03]]]], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down3.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.0.weight', - tensor([[[[-1.3104e-02, 9.6535e-03, 7.0547e-03], - [ 6.8489e-03, 5.6884e-03, -3.3797e-03], - [-1.3077e-02, 1.1413e-02, -8.2186e-03]], - - [[-6.4877e-03, 1.2398e-02, 1.4672e-02], - [-2.8377e-03, 2.9911e-03, 8.6744e-03], - [ 4.6708e-03, -1.9309e-03, -1.3963e-02]], - - [[-8.8996e-04, -1.3098e-02, -1.2099e-02], - [ 1.1789e-02, -6.3457e-03, 8.4533e-03], - [ 6.9120e-04, 3.7103e-03, -3.9384e-03]], - - ..., - - [[-1.4631e-02, 7.6187e-03, 1.3055e-02], - [ 8.7348e-03, 2.2455e-03, 1.4252e-02], - [-7.8609e-03, 6.6497e-03, 1.2674e-02]], - - [[ 1.0928e-02, 8.1940e-03, 1.4620e-03], - [ 1.1112e-03, -7.0720e-03, -1.2397e-02], - [ 1.3073e-02, 2.2528e-03, 6.1473e-03]], - - [[-1.1589e-02, -9.5213e-03, -5.2496e-03], - [-1.1412e-02, -1.3629e-02, 7.4268e-03], - [-6.4922e-03, 1.1146e-02, -9.5554e-03]]], - - - [[[ 2.3625e-05, -1.3995e-02, -7.6334e-03], - [-9.4009e-03, -9.2042e-03, 5.7072e-03], - [ 9.9287e-03, -5.7740e-03, 8.9586e-03]], - - [[ 1.4008e-02, -1.0200e-02, 1.3237e-02], - [ 1.4621e-02, -1.2051e-02, 6.9597e-03], - [ 1.2422e-02, -8.4337e-03, -7.5494e-03]], - - [[ 5.7422e-04, -8.9031e-03, 1.4246e-02], - [-3.9909e-03, -1.2648e-05, 7.5228e-03], - [ 4.5517e-03, -8.1091e-03, -2.5926e-03]], - - ..., - - [[ 1.7802e-03, 1.2118e-02, -8.6626e-04], - [-6.0965e-04, -5.6477e-03, -4.7239e-03], - [-1.4231e-03, -1.1298e-02, 4.0613e-03]], - - [[ 2.4961e-05, 4.4265e-03, 1.4223e-02], - [ 2.2458e-03, 1.3728e-02, -1.1796e-02], - [-7.2479e-03, 1.2696e-02, 4.3921e-03]], - - [[ 1.4457e-02, -1.0118e-02, 1.3083e-02], - [-7.3051e-03, 1.3544e-02, -1.2357e-02], - [ 3.5746e-03, -1.3268e-02, -9.3003e-03]]], - - - [[[-3.1621e-03, 1.4471e-02, 1.0941e-02], - [ 1.2192e-02, 5.9600e-03, 7.0732e-03], - [ 1.6198e-03, -1.1914e-02, -1.1316e-02]], - - [[-8.1733e-03, -4.6493e-03, 1.3078e-02], - [-5.0052e-03, -1.0437e-02, 9.8975e-03], - [-1.3412e-02, -8.9157e-03, 1.3293e-02]], - - [[-5.0194e-03, 6.6695e-03, 3.4234e-04], - [-1.3336e-02, 1.4430e-03, 7.5926e-03], - [-1.0269e-03, 1.0630e-02, -8.4293e-03]], - - ..., - - [[ 1.0040e-02, -9.6519e-03, 1.1701e-02], - [ 6.5308e-05, 3.5704e-03, -1.2048e-02], - [-9.5033e-03, -1.2604e-02, -1.2307e-02]], - - [[-6.6415e-03, -1.0024e-02, 1.3435e-02], - [-6.3868e-03, -1.4265e-02, -2.8581e-03], - [-1.3789e-02, 1.1855e-02, 7.1601e-03]], - - [[-9.1238e-03, 4.7032e-05, -2.2387e-03], - [ 4.9879e-04, 7.7738e-03, 5.1973e-03], - [ 3.4793e-03, 9.1406e-03, -9.1121e-04]]], - - - ..., - - - [[[ 3.2879e-03, 1.1191e-03, -6.0251e-03], - [-3.2071e-03, 5.4502e-03, 1.2839e-04], - [ 5.8309e-03, -1.3948e-02, 3.9841e-03]], - - [[ 1.0795e-02, 5.7343e-03, 3.2873e-03], - [ 5.4282e-03, -1.0134e-02, 3.3486e-03], - [ 5.0658e-03, -1.4290e-02, 3.9768e-03]], - - [[-1.4718e-02, -4.8749e-03, 8.8550e-03], - [-1.2116e-02, 3.9706e-03, -1.5341e-04], - [-5.6044e-03, 9.2914e-03, 2.6309e-03]], - - ..., - - [[ 1.1578e-02, 4.7662e-03, 1.0865e-02], - [-9.9621e-03, 7.2204e-03, 6.7652e-03], - [ 6.1930e-03, 5.5036e-03, -4.8385e-03]], - - [[-1.1982e-02, 9.0713e-03, -6.7553e-03], - [ 1.0392e-02, -6.3635e-03, -1.1598e-03], - [ 1.0464e-02, 4.0243e-03, 1.4345e-03]], - - [[ 3.2504e-03, 1.4237e-02, -7.7320e-03], - [-1.0245e-02, -8.5657e-03, -1.2735e-02], - [-3.5816e-03, 1.3560e-02, -1.2678e-02]]], - - - [[[-1.4336e-02, -4.6926e-03, 1.3425e-02], - [ 1.3409e-02, -6.8928e-03, -9.7946e-03], - [-1.4182e-02, -8.6928e-03, -1.4202e-02]], - - [[-5.0576e-03, -9.8077e-03, 5.6572e-03], - [-1.4611e-02, 4.4676e-03, -1.3235e-02], - [ 3.6478e-03, 4.1773e-04, 1.4504e-02]], - - [[-8.5665e-03, -6.6888e-03, -5.9852e-03], - [ 1.8548e-03, 1.2795e-02, -6.3900e-03], - [-1.3038e-02, 7.2169e-03, 9.2560e-03]], - - ..., - - [[-5.8375e-03, 8.9250e-03, 1.2109e-02], - [-1.3653e-02, 1.3453e-02, -6.7649e-03], - [-1.2166e-02, -1.3578e-02, -1.2037e-03]], - - [[-5.5372e-03, -3.9234e-03, -2.1640e-03], - [-8.1456e-03, -8.1486e-03, 4.8608e-05], - [-7.9746e-03, 3.5861e-03, -5.4110e-03]], - - [[ 9.0684e-03, -4.6523e-03, 8.6029e-03], - [-3.5470e-03, -2.6329e-03, 4.1187e-03], - [-1.7698e-03, 3.1339e-03, -1.3087e-02]]], - - - [[[ 1.3993e-02, 1.0210e-02, -9.8379e-03], - [-3.6017e-03, 1.5505e-03, -7.5702e-03], - [-1.3827e-03, -1.4429e-02, -1.3696e-02]], - - [[ 1.2335e-02, 8.3124e-03, -4.6792e-03], - [ 4.8468e-03, 1.3626e-04, 9.8758e-03], - [-2.6817e-03, 3.2997e-03, -9.7415e-04]], - - [[ 3.1673e-03, -7.1938e-03, -1.4500e-03], - [-9.1013e-03, 8.4705e-03, -9.5864e-03], - [ 1.6714e-03, -1.4101e-02, 1.1644e-02]], - - ..., - - [[ 1.4320e-02, 4.4366e-03, -5.8747e-03], - [-8.1688e-03, -6.9629e-03, 3.0317e-04], - [-1.2110e-02, -1.3646e-02, -6.0113e-03]], - - [[-3.7647e-04, 7.6979e-03, 3.3129e-03], - [ 7.6917e-03, -1.9005e-03, 6.3914e-03], - [-2.9271e-03, 1.0327e-02, -9.8557e-03]], - - [[ 1.1749e-02, 3.9048e-03, -7.2822e-03], - [ 1.4049e-02, 1.3569e-02, 2.5594e-03], - [ 1.2890e-02, 5.6545e-03, 6.2168e-03]]]], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.3.weight', - tensor([[[[-1.0162e-02, -7.9513e-03, -1.4126e-02], - [-6.2557e-03, -9.7779e-03, 1.0858e-02], - [ 9.1498e-03, 3.0958e-04, 9.0409e-03]], - - [[-7.6646e-03, -9.0559e-03, -8.4516e-04], - [-1.2277e-02, 2.7770e-03, 2.4928e-03], - [ 2.1196e-03, -2.7451e-03, -1.3663e-02]], - - [[-8.4018e-03, 3.2803e-03, -6.1505e-03], - [ 1.3116e-02, 8.8065e-03, 4.6064e-03], - [ 9.4382e-03, -7.7282e-03, 1.0306e-02]], - - ..., - - [[ 6.6357e-03, -2.2279e-03, -8.7835e-03], - [-5.1093e-03, 3.9618e-03, 8.8206e-03], - [ 1.4141e-02, 1.3784e-02, 1.1771e-02]], - - [[-5.9949e-03, -1.3745e-04, 7.4454e-03], - [-9.2404e-03, 1.3126e-02, 9.9188e-03], - [-6.8859e-03, -1.4138e-02, -9.2198e-03]], - - [[-1.4438e-02, 1.1573e-02, 1.1146e-02], - [-8.7031e-03, -4.6383e-03, 7.3338e-03], - [ 1.1381e-02, -9.0583e-03, -2.5293e-03]]], - - - [[[-1.3852e-02, -6.8651e-03, 2.3293e-03], - [ 1.2269e-02, 6.5710e-03, 3.9793e-03], - [-7.3067e-03, -5.9318e-03, -6.7658e-03]], - - [[ 9.5927e-03, -7.6682e-03, -1.3819e-02], - [-9.0626e-03, 3.5546e-03, -8.5062e-03], - [ 1.7261e-03, -2.6030e-03, -1.4632e-02]], - - [[ 1.0916e-02, 1.0892e-02, 1.4228e-02], - [ 1.1874e-02, -6.4073e-03, -5.1940e-03], - [-7.4828e-03, -7.4947e-03, 2.5183e-03]], - - ..., - - [[ 9.7132e-03, 2.0456e-03, -4.0253e-03], - [ 1.9973e-03, 1.2258e-02, -1.3174e-03], - [-9.0220e-03, -8.2095e-03, 1.4117e-02]], - - [[-1.0827e-02, 1.4226e-02, -6.4879e-03], - [ 1.2198e-02, -1.2647e-02, 8.6206e-03], - [-2.7980e-03, -2.0266e-03, 5.7236e-03]], - - [[-1.2030e-02, 1.2822e-02, -8.4252e-03], - [ 1.1277e-02, -7.0514e-03, -7.5673e-03], - [ 8.1968e-03, -1.2170e-02, -7.3895e-03]]], - - - [[[ 8.0684e-03, 1.3598e-02, -7.9777e-03], - [-1.4268e-02, 4.8484e-03, -1.1704e-02], - [ 4.8766e-03, 2.9658e-03, 2.0288e-03]], - - [[-1.1000e-03, -2.6417e-03, 3.1051e-03], - [ 1.2253e-02, -7.2229e-03, -1.1037e-03], - [ 1.0293e-02, 3.9444e-03, -8.0077e-03]], - - [[ 3.6599e-03, 1.3138e-02, -1.0403e-03], - [-1.0804e-02, -2.9224e-03, -7.3381e-04], - [-8.4483e-03, -3.5656e-03, 1.0923e-02]], - - ..., - - [[ 1.0183e-02, -1.0656e-02, 2.5374e-03], - [-2.4001e-03, 9.3434e-03, 8.0887e-03], - [-3.1470e-03, -3.6860e-03, 6.9349e-03]], - - [[-1.4212e-02, 4.7419e-03, 2.2588e-03], - [ 1.2572e-02, 2.5563e-03, -8.1275e-03], - [-3.7703e-03, 2.5945e-03, 5.5602e-03]], - - [[-1.2830e-02, -1.0370e-02, 9.9764e-03], - [-1.0848e-02, -9.6209e-03, 8.2907e-03], - [ 4.6423e-03, -4.9777e-03, -8.6183e-03]]], - - - ..., - - - [[[ 7.9552e-03, 1.0103e-02, -4.7408e-03], - [-1.3407e-02, 6.5927e-03, -7.2890e-03], - [ 1.2902e-02, -7.3139e-03, 4.8173e-03]], - - [[-8.6896e-03, -1.9172e-03, 5.9656e-03], - [-7.3172e-05, 2.9933e-03, -1.1204e-02], - [ 2.1456e-03, 2.6252e-03, -1.3978e-02]], - - [[-8.2944e-03, -6.1581e-03, 1.3276e-02], - [ 2.0285e-04, -6.9051e-03, 1.3585e-02], - [-7.9958e-03, 5.1597e-03, -1.1482e-02]], - - ..., - - [[ 2.9236e-03, 8.6567e-03, -5.6918e-03], - [ 1.2319e-02, -1.2173e-02, -1.1142e-02], - [ 2.1955e-03, 2.1893e-03, 1.0226e-02]], - - [[-1.3731e-02, 2.4001e-04, 1.0280e-02], - [ 6.2036e-04, 9.4891e-03, -9.4363e-03], - [ 7.7716e-03, -5.3223e-03, -1.1793e-02]], - - [[ 9.0567e-03, -9.4963e-03, 1.2966e-02], - [-3.5606e-03, 6.7127e-03, 9.2346e-03], - [ 1.6610e-04, 9.7832e-04, -3.7458e-03]]], - - - [[[ 1.8821e-03, 7.0609e-03, -9.9641e-03], - [ 2.8442e-03, -3.4813e-04, 2.8147e-03], - [-7.6718e-03, 1.4098e-03, 3.6991e-03]], - - [[-7.4600e-03, 6.1319e-03, -6.6834e-03], - [ 4.6137e-03, -9.7316e-03, -2.1926e-03], - [-5.1150e-03, 8.5056e-03, 1.4168e-02]], - - [[ 1.2746e-02, 8.4634e-03, 1.2394e-02], - [ 6.5522e-03, -1.0927e-02, -1.4621e-02], - [ 9.5033e-03, 3.9224e-03, 9.9719e-03]], - - ..., - - [[-4.0116e-03, -1.4190e-02, -2.6838e-03], - [-1.9716e-04, -1.6087e-03, -2.2089e-03], - [ 1.1347e-02, 5.0595e-04, -2.1228e-03]], - - [[ 1.1465e-03, 6.0314e-03, -7.8767e-03], - [-6.6732e-03, -5.0615e-03, -7.0481e-03], - [-3.5145e-03, -1.4674e-02, 9.3690e-03]], - - [[-2.1949e-03, 1.8604e-04, -3.8469e-04], - [-6.0911e-03, 4.8625e-03, 9.1291e-04], - [-4.2253e-03, -9.7373e-03, 3.0233e-03]]], - - - [[[ 1.3092e-02, -9.1652e-03, -1.4018e-02], - [-7.5290e-03, -1.1704e-02, 1.1918e-02], - [-3.6753e-03, 8.3012e-03, -7.8185e-03]], - - [[ 1.3660e-02, -1.0051e-04, -4.8537e-03], - [ 4.5250e-03, 1.1501e-02, -1.2260e-02], - [-1.2088e-02, -1.1217e-02, -8.9023e-03]], - - [[ 3.9087e-03, -1.1512e-03, -1.3955e-02], - [-2.1982e-03, 1.0120e-02, -5.0558e-03], - [-1.3255e-02, 2.8492e-03, -4.1524e-03]], - - ..., - - [[-1.2921e-02, -1.8075e-03, 3.1186e-03], - [ 4.0110e-03, 5.9678e-03, -1.5871e-03], - [ 4.0160e-03, 4.9175e-04, 2.2130e-03]], - - [[-3.4039e-03, -1.2438e-02, 6.7231e-03], - [ 1.2851e-02, -5.3675e-03, 1.6797e-03], - [-1.3136e-02, -2.5658e-03, -5.8660e-03]], - - [[-2.0538e-03, 7.5002e-04, 6.9986e-03], - [ 1.3422e-02, -9.2835e-04, 4.6620e-03], - [-1.3815e-02, 5.7040e-03, -6.6107e-03]]]], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.down4.maxpool_conv.1.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up1.conv.double_conv.0.weight', - tensor([[[[ 6.0052e-03, -6.1578e-03, -8.6970e-03], - [ 1.6955e-03, -7.3866e-03, 5.3448e-03], - [ 5.5082e-03, 9.1673e-03, 1.0191e-02]], - - [[-3.7926e-03, 5.7925e-03, 1.0316e-02], - [ 9.6915e-03, 8.8699e-03, 5.3047e-03], - [ 5.0500e-03, 4.6066e-03, 1.0278e-02]], - - [[-7.2442e-04, -7.9003e-03, -9.7175e-03], - [ 4.6586e-04, -3.6655e-03, -9.5510e-03], - [-9.1740e-03, -7.8502e-03, -5.3606e-03]], - - ..., - - [[ 2.1322e-03, -9.4887e-05, -4.9738e-03], - [-6.1662e-03, 1.3903e-03, -7.2019e-03], - [ 5.4206e-03, 8.7880e-03, 4.3695e-03]], - - [[ 3.3114e-03, -4.8001e-03, -2.7326e-03], - [-3.7524e-03, 7.7908e-03, -8.4219e-03], - [ 2.0721e-03, 7.5771e-03, 6.9718e-03]], - - [[-9.9150e-03, -2.1330e-03, 7.4038e-03], - [-6.3372e-03, -8.1195e-03, 1.6034e-03], - [ 5.8172e-03, -1.3327e-03, -7.0786e-03]]], - - - [[[-4.7313e-03, -2.5325e-03, -6.1366e-03], - [ 1.1530e-03, -5.3506e-03, -6.1344e-04], - [ 2.7635e-03, -6.2766e-03, 4.6419e-03]], - - [[ 4.3768e-03, -4.0070e-03, 8.7607e-03], - [-8.9397e-03, -9.8516e-03, -2.8273e-03], - [-3.7660e-03, 3.6542e-03, 1.0126e-02]], - - [[-6.7512e-03, 6.0833e-03, 2.7166e-03], - [ 9.3578e-04, 5.1147e-03, 6.3890e-03], - [ 1.5687e-04, 7.4274e-03, -8.3365e-03]], - - ..., - - [[-4.8921e-03, -5.4093e-03, 5.6688e-03], - [ 3.1983e-03, 3.9314e-03, -8.9410e-03], - [ 6.5762e-03, -9.7403e-03, -4.1459e-03]], - - [[ 8.1715e-03, 5.4453e-03, -7.9296e-03], - [ 1.6348e-03, -1.7733e-04, 1.1809e-03], - [-6.2941e-03, 6.1941e-03, 1.7227e-03]], - - [[ 9.5111e-03, -8.0376e-03, -3.7345e-03], - [ 5.4716e-03, -3.7542e-03, 2.9980e-03], - [-7.5362e-03, 8.4094e-03, 8.9098e-03]]], - - - [[[-9.6740e-03, -8.1277e-03, 3.9857e-03], - [-3.5163e-03, 8.6464e-03, 4.2643e-03], - [-5.0144e-03, -9.8802e-04, 4.8284e-04]], - - [[-6.5739e-03, 9.1206e-03, 5.8876e-03], - [-4.3970e-03, 3.9926e-04, 4.9571e-03], - [-3.2965e-03, 4.1399e-04, -2.7867e-03]], - - [[-4.9022e-03, -7.1855e-04, 5.2022e-04], - [-3.8415e-03, 7.9072e-03, 1.0071e-02], - [-6.5128e-03, -3.6828e-03, -8.3628e-03]], - - ..., - - [[ 8.5856e-03, -7.1988e-03, 9.1629e-03], - [ 9.4906e-03, -6.0381e-03, 6.3775e-04], - [ 3.2705e-03, -4.2573e-03, 7.2144e-03]], - - [[-2.7434e-03, -5.6575e-03, 7.0926e-03], - [ 6.5038e-03, 1.0222e-02, 7.6083e-03], - [ 8.3256e-03, 7.9641e-03, -6.8926e-03]], - - [[ 3.2581e-03, -3.4153e-03, 1.7781e-04], - [-4.7329e-03, -2.7371e-03, -7.9243e-03], - [-7.3951e-03, -3.6213e-03, 3.8721e-04]]], - - - ..., - - - [[[-1.3754e-03, 1.0256e-02, -9.6938e-03], - [-5.2090e-03, 1.1899e-03, 6.6328e-03], - [-6.4318e-03, 7.6097e-03, 3.2797e-03]], - - [[-7.0052e-03, 4.5905e-03, -8.9286e-03], - [-8.2543e-03, -5.1691e-03, -5.8590e-03], - [ 8.7791e-03, 5.7680e-03, -8.9067e-03]], - - [[-7.6416e-03, -9.3266e-03, 9.4770e-03], - [ 1.4398e-03, 4.5831e-03, -3.4448e-03], - [-4.5923e-03, -5.7610e-03, -4.3103e-03]], - - ..., - - [[-2.0614e-03, -8.5129e-03, -8.4951e-03], - [ 2.6566e-03, 9.1776e-03, 2.6760e-03], - [-1.7022e-04, 3.6392e-03, 5.0875e-03]], - - [[-2.9073e-03, -7.8702e-03, -1.2811e-03], - [-8.3429e-03, -8.4082e-03, 4.3443e-03], - [-6.5337e-03, 3.0448e-03, -3.2978e-03]], - - [[-6.3634e-03, -6.4584e-03, -9.4520e-03], - [ 6.3613e-03, 1.3895e-03, 6.7184e-03], - [ 1.9717e-04, 3.0919e-03, -9.3850e-03]]], - - - [[[-7.3347e-03, 3.7111e-03, -1.4600e-03], - [-8.9929e-03, -1.0001e-02, -9.7608e-03], - [ 4.9672e-03, -5.1917e-03, -9.9102e-03]], - - [[ 7.6933e-03, -4.9824e-03, -8.9469e-03], - [ 4.8704e-03, -1.6437e-03, 8.8097e-03], - [-3.0993e-03, -5.9778e-03, -3.1651e-03]], - - [[ 8.6893e-03, 9.8990e-03, 7.1665e-03], - [ 7.6924e-03, -1.0816e-03, 9.3137e-03], - [-4.7224e-03, -3.9862e-03, -7.0841e-03]], - - ..., - - [[ 7.1673e-03, 5.2882e-03, 5.8690e-03], - [ 4.2807e-04, -4.7009e-04, 9.8658e-03], - [-3.6831e-03, -3.5520e-03, 4.0485e-03]], - - [[-5.5522e-03, 9.4766e-03, 8.2692e-03], - [-3.1187e-03, -8.5105e-03, 8.7861e-03], - [-7.3462e-03, 5.8684e-03, 9.6273e-03]], - - [[-3.7102e-03, 7.7810e-03, -1.4194e-03], - [-4.0797e-03, -8.0059e-03, 8.5199e-03], - [-9.1947e-03, 3.5915e-03, -4.6602e-03]]], - - - [[[-1.3775e-03, 6.0666e-04, -6.9796e-04], - [ 6.7400e-03, 6.6210e-03, 2.7429e-03], - [-8.8243e-03, -9.8390e-03, 2.4116e-03]], - - [[ 4.7119e-03, 3.2005e-03, 5.9726e-03], - [ 9.5476e-03, 1.6969e-03, 9.7832e-03], - [-2.6481e-03, 7.0522e-03, -7.9863e-03]], - - [[ 4.9707e-03, 9.5256e-04, -1.3029e-03], - [-6.9370e-03, -1.0068e-02, 1.0652e-03], - [-2.0503e-03, 8.6360e-03, -1.5661e-03]], - - ..., - - [[-6.5328e-03, -9.1420e-04, 5.5855e-03], - [ 8.4739e-03, -4.1916e-03, 1.0212e-02], - [ 1.0342e-02, -8.0135e-03, -1.1019e-04]], - - [[ 4.2931e-03, 4.7278e-03, 8.9549e-03], - [ 7.2504e-03, 4.6937e-03, -6.7444e-03], - [-1.0244e-02, 2.1343e-03, -3.2979e-03]], - - [[ 9.3904e-03, -7.6412e-03, 2.0035e-03], - [-6.8808e-03, 1.0404e-02, 9.5906e-03], - [ 5.1486e-03, 1.8948e-03, -1.0138e-03]]]], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up1.conv.double_conv.3.weight', - tensor([[[[ 4.6532e-03, -7.6019e-03, -2.2726e-03], - [ 4.6818e-03, 1.2958e-02, 7.4474e-03], - [ 1.0656e-02, 7.3169e-03, 1.4385e-02]], - - [[-7.1003e-03, 5.6198e-03, 1.1528e-02], - [ 1.2165e-02, 2.7467e-03, 1.2221e-02], - [ 1.0123e-02, -7.3388e-04, -1.3558e-02]], - - [[ 6.1051e-04, -1.0071e-02, 1.0367e-02], - [ 5.4181e-03, 3.2388e-03, 8.1533e-04], - [ 9.9759e-03, -8.9243e-03, -1.0614e-02]], - - ..., - - [[-1.1593e-02, 4.4562e-03, -1.2794e-02], - [-2.0847e-03, 8.4393e-03, -3.0718e-03], - [ 1.2095e-02, 9.6634e-03, -6.1204e-03]], - - [[-8.5692e-03, -5.3203e-03, -6.0301e-03], - [-1.3060e-02, -4.9878e-03, 1.3536e-02], - [-3.0446e-03, -3.7271e-03, 1.8943e-03]], - - [[ 9.1236e-03, 6.2085e-03, -5.2066e-03], - [ 7.0768e-03, 5.8855e-03, -1.3525e-02], - [ 1.2969e-02, -3.1656e-03, -9.7805e-03]]], - - - [[[-1.3448e-02, -1.4380e-02, 3.3876e-03], - [-6.9893e-03, -8.7593e-03, 3.4935e-03], - [ 6.0252e-03, 6.2473e-03, -7.2960e-04]], - - [[ 1.2521e-03, -1.2604e-02, -1.4122e-02], - [-7.8812e-03, 1.2843e-03, 3.4510e-03], - [-8.0826e-03, -6.0928e-03, 1.4071e-02]], - - [[ 1.2236e-02, -2.2066e-03, 7.5802e-03], - [-3.4579e-03, -8.4028e-03, 1.2992e-02], - [ 1.5273e-03, 9.6915e-03, -2.7779e-03]], - - ..., - - [[-9.7299e-03, 7.2240e-03, 3.2073e-04], - [ 5.1952e-03, 1.3993e-02, 5.8187e-03], - [-3.9472e-03, 9.5075e-03, 9.9508e-03]], - - [[ 3.8860e-03, -7.5956e-03, -6.7716e-03], - [-6.3491e-03, 1.1731e-02, -4.6717e-03], - [ 5.6204e-04, -4.5982e-03, -1.3072e-03]], - - [[-9.9374e-03, -1.4691e-03, 9.6274e-03], - [-3.4154e-03, -9.9765e-03, 4.7587e-03], - [ 1.1309e-02, 1.2087e-03, 1.1953e-02]]], - - - [[[ 1.2883e-02, -7.2949e-03, -4.8458e-03], - [ 9.7466e-03, 1.1054e-02, 1.2237e-02], - [ 9.9405e-03, 1.4726e-02, 2.0744e-03]], - - [[ 1.0789e-02, 1.3618e-02, 1.4625e-02], - [-1.9228e-03, 5.1298e-03, 5.3312e-04], - [ 1.4351e-02, 8.0309e-03, -1.3372e-02]], - - [[-3.1131e-03, -6.5674e-04, -1.0796e-02], - [-9.3562e-03, 6.5610e-03, -1.3210e-02], - [ 7.9644e-03, 1.0064e-03, 6.2818e-04]], - - ..., - - [[-2.9593e-03, -3.4946e-03, -4.1973e-03], - [ 1.2073e-02, 7.9237e-03, 9.7770e-05], - [-4.5093e-03, -8.0024e-03, -3.3877e-03]], - - [[ 4.1504e-04, -6.3685e-03, 2.9286e-04], - [-1.4368e-02, 5.2549e-04, -1.2686e-02], - [ 1.6020e-03, 4.4607e-03, 7.5159e-03]], - - [[-6.6873e-03, 5.1561e-05, 8.2160e-03], - [-7.2157e-03, -9.4008e-04, -9.3220e-03], - [ 1.3272e-03, 1.3943e-03, -1.0126e-02]]], - - - ..., - - - [[[ 2.3756e-03, 1.2603e-02, 1.0009e-02], - [ 1.3332e-02, 2.2436e-03, -2.6538e-03], - [ 1.2150e-02, -6.4561e-03, -1.2219e-02]], - - [[-8.2563e-03, 1.4514e-02, -6.5334e-03], - [ 1.0584e-02, 7.2743e-03, -7.7184e-03], - [-1.3945e-02, -3.9507e-04, -1.3207e-02]], - - [[-1.1936e-02, 1.2723e-02, 1.4794e-03], - [-9.2238e-03, 1.2513e-02, -1.2755e-02], - [-2.3135e-04, -1.2050e-02, 1.0637e-02]], - - ..., - - [[-1.7315e-03, -1.1583e-02, -6.2004e-03], - [-3.6829e-03, -7.5475e-03, -1.1467e-02], - [-1.2565e-04, -1.6956e-03, 7.3251e-03]], - - [[ 4.5195e-03, 9.6949e-03, -1.1593e-02], - [-1.0726e-02, -4.3706e-03, -1.0075e-02], - [-1.1938e-02, -6.4125e-03, 5.7692e-04]], - - [[-1.1380e-02, -9.5971e-03, -1.3420e-02], - [ 1.0888e-02, -1.0871e-02, 4.6657e-05], - [-2.8069e-03, -1.0725e-02, 2.2430e-03]]], - - - [[[ 1.1839e-02, 1.3359e-02, -2.2681e-03], - [ 1.8450e-03, 5.9289e-04, -1.2829e-02], - [ 1.4203e-02, 2.5810e-03, -1.1913e-02]], - - [[-1.3077e-02, -1.4014e-02, -4.2100e-03], - [-9.9503e-03, 1.1108e-02, -3.2723e-03], - [ 2.0312e-03, 4.5349e-03, 1.3859e-02]], - - [[-1.4575e-02, 1.1122e-02, -7.5780e-03], - [-3.8330e-03, -9.8024e-04, 5.9586e-03], - [ 9.8220e-03, -6.8341e-03, 1.2393e-02]], - - ..., - - [[-3.4048e-03, 1.3819e-02, -2.6837e-03], - [ 1.1734e-02, 1.4311e-03, -1.2245e-02], - [-8.3261e-03, 1.3495e-02, 2.9223e-03]], - - [[-1.2962e-02, -7.3929e-03, -7.3878e-03], - [-1.7338e-03, -6.7076e-03, -7.7754e-03], - [ 1.4972e-03, -6.4253e-03, -1.4126e-02]], - - [[ 1.4451e-02, -4.8099e-03, 5.7255e-03], - [-5.8516e-03, 4.0733e-03, 1.0094e-02], - [ 8.1309e-04, 5.1471e-03, 5.1509e-03]]], - - - [[[ 9.8223e-04, 1.1245e-02, 1.1552e-02], - [-7.6653e-03, 6.1365e-04, -4.2670e-03], - [ 5.1350e-03, 1.4145e-02, -8.8357e-04]], - - [[ 1.2253e-02, 1.0491e-02, -1.4184e-02], - [ 2.6855e-03, 7.4216e-03, -4.6636e-03], - [-1.0291e-02, -1.2930e-02, -3.5078e-04]], - - [[ 4.5516e-03, -9.4295e-03, 9.7718e-03], - [-7.6455e-03, 1.0235e-02, 1.2030e-03], - [-2.7815e-03, 6.6763e-03, -8.7617e-03]], - - ..., - - [[-9.8976e-03, 1.2484e-02, -2.8897e-03], - [ 4.3479e-03, 8.9747e-03, 8.7985e-04], - [ 1.2341e-02, 4.2616e-04, 4.2251e-03]], - - [[ 1.2692e-02, -1.7026e-03, 7.1434e-03], - [ 1.1852e-02, -1.1433e-02, -1.3874e-02], - [ 1.2581e-02, -3.8352e-03, -7.5201e-04]], - - [[-4.7592e-04, -3.9157e-03, 3.5884e-03], - [-3.2631e-03, -1.6258e-03, -1.0496e-02], - [ 1.3847e-03, -5.7536e-04, -1.0432e-02]]]], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up1.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up1.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up1.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up2.conv.double_conv.0.weight', - tensor([[[[-2.1518e-03, 1.0631e-02, 1.2601e-02], - [ 9.9365e-03, 8.6478e-03, -1.2200e-02], - [-8.7199e-03, -1.3551e-04, 2.7872e-03]], - - [[ 1.0136e-02, 5.1465e-03, -7.2739e-03], - [-1.0549e-02, -4.3726e-03, -1.0110e-02], - [-1.2202e-02, 8.1444e-03, 1.2508e-02]], - - [[-1.1105e-02, -3.2792e-03, 1.1186e-02], - [-8.2915e-03, 8.8182e-03, 1.1263e-02], - [-4.4057e-03, 8.6805e-03, -9.5922e-03]], - - ..., - - [[ 6.3221e-03, -1.2953e-02, 5.1380e-03], - [ 2.9260e-04, -1.0260e-02, 6.4162e-03], - [-5.8944e-03, 4.6316e-03, 1.4742e-03]], - - [[-1.0956e-02, -3.5614e-03, -3.6777e-03], - [ 1.2266e-02, -3.7897e-05, -1.1044e-02], - [ 5.1852e-03, 8.2570e-03, 1.3097e-03]], - - [[-2.4492e-03, -3.5821e-03, -1.4560e-02], - [ 9.1054e-03, -4.1931e-03, 9.5132e-03], - [ 5.1267e-03, 1.1881e-02, 5.6942e-04]]], - - - [[[ 1.0638e-02, -5.4433e-03, -3.7759e-03], - [ 1.1677e-02, -4.1737e-03, -1.0637e-02], - [-1.6576e-03, -2.1487e-03, -1.1114e-02]], - - [[ 1.8396e-03, 1.3266e-02, 6.8261e-03], - [ 3.9165e-03, -8.8550e-03, 1.4806e-03], - [ 7.0773e-04, 1.1756e-02, -1.0292e-02]], - - [[ 1.3127e-02, 4.8850e-03, 2.1176e-03], - [ 2.1249e-03, -5.7832e-03, -1.3140e-02], - [ 8.5454e-03, -8.9114e-03, -1.3402e-02]], - - ..., - - [[ 1.1088e-02, 7.2383e-03, 1.2047e-02], - [ 9.5457e-03, 1.3826e-02, -2.5452e-03], - [ 9.1783e-03, 1.0598e-02, -8.6740e-04]], - - [[ 4.5989e-03, -1.4716e-03, -1.2077e-02], - [-9.6809e-04, -1.2336e-02, 9.3714e-04], - [ 3.9654e-03, -7.3955e-03, -1.2232e-02]], - - [[ 5.6303e-03, -8.0869e-03, -2.5287e-03], - [ 1.8057e-03, -1.1487e-02, -2.8659e-03], - [ 4.0015e-03, -1.2479e-02, -1.1998e-02]]], - - - [[[ 9.4689e-03, -7.2081e-03, 1.4072e-03], - [ 1.2932e-02, -3.2592e-03, -8.7485e-03], - [ 9.2945e-03, 4.6018e-03, 4.0055e-03]], - - [[-1.3764e-02, -4.2907e-03, 3.2547e-03], - [ 3.3341e-03, 1.1304e-03, -1.2234e-02], - [-1.3467e-02, -5.6734e-03, 7.4354e-03]], - - [[-5.6023e-03, -2.8761e-03, -1.4718e-02], - [ 1.0713e-02, -1.6779e-03, -1.1996e-02], - [-1.2827e-02, 1.0703e-02, -9.7047e-03]], - - ..., - - [[ 3.2607e-03, -8.0475e-03, 6.1829e-03], - [-2.9395e-03, 3.3496e-03, 5.1071e-03], - [ 5.9723e-03, 4.7608e-03, -1.6388e-03]], - - [[-4.3904e-03, 7.7792e-03, -1.2428e-02], - [-3.2456e-03, 5.5866e-03, -1.4352e-02], - [-1.1821e-02, 2.6534e-03, 7.5290e-03]], - - [[ 4.6186e-03, -6.2310e-03, 1.1741e-02], - [-1.4587e-02, 9.7592e-03, 1.2688e-02], - [ 4.2982e-03, 5.2313e-03, -1.2822e-02]]], - - - ..., - - - [[[ 1.1165e-02, 7.8691e-04, -9.3187e-03], - [-7.7603e-03, -3.0258e-03, -9.7707e-03], - [ 7.5438e-03, 1.4036e-02, 1.0273e-02]], - - [[-1.3591e-02, 7.4804e-03, -4.6866e-04], - [-1.3815e-02, 1.2045e-02, -9.8406e-03], - [ 1.0759e-02, 6.9177e-03, -1.3892e-02]], - - [[ 1.2857e-02, -4.8749e-04, 9.5570e-03], - [ 2.7064e-03, -8.0672e-03, 1.0471e-02], - [ 5.2177e-03, 1.2281e-02, -6.2795e-03]], - - ..., - - [[ 1.0430e-03, 1.3958e-02, -1.1441e-02], - [-1.0572e-02, 4.8599e-04, -8.1871e-03], - [ 8.7779e-03, 8.1478e-03, -3.1877e-03]], - - [[ 7.4461e-03, 2.9228e-03, -1.0984e-02], - [ 9.8613e-03, 1.3081e-02, 1.2413e-02], - [ 1.2035e-02, -3.1168e-03, -7.5135e-03]], - - [[ 8.0283e-03, -4.2646e-03, -7.9841e-03], - [-1.9161e-05, -6.6800e-03, -1.6066e-04], - [ 9.5017e-03, -1.7248e-03, 7.0304e-03]]], - - - [[[ 3.5356e-03, -7.6512e-03, -8.9665e-03], - [-4.8910e-03, 2.0278e-03, 7.1160e-03], - [-3.0881e-03, -4.1455e-03, 1.1920e-02]], - - [[ 3.7466e-03, -3.9381e-03, 1.4420e-02], - [-1.3107e-02, -5.7352e-03, 6.8331e-03], - [-6.0296e-03, 1.2593e-02, 8.2828e-03]], - - [[-9.1421e-03, 1.2051e-02, 9.1719e-03], - [-2.3811e-03, -1.4370e-02, -1.1317e-02], - [-5.8528e-03, 5.9658e-03, -7.2074e-03]], - - ..., - - [[ 1.4338e-02, 1.0304e-02, -6.8373e-03], - [ 2.6406e-03, -2.9580e-03, -2.9774e-03], - [-6.9043e-03, 1.4699e-02, -7.5011e-03]], - - [[ 9.0359e-03, -7.4744e-03, 2.7057e-03], - [-1.0241e-03, -9.2485e-03, -3.4580e-03], - [ 3.8833e-03, 7.4134e-03, -1.1881e-02]], - - [[-1.9624e-03, 2.7043e-03, -4.4755e-04], - [-1.1581e-02, -1.3765e-02, -8.7221e-03], - [ 1.3774e-02, -1.1876e-02, -1.0575e-02]]], - - - [[[-1.7063e-04, 6.7622e-04, 8.8984e-03], - [-5.9551e-03, 1.2280e-02, -1.2928e-02], - [-1.2386e-02, 1.3566e-02, 3.3778e-03]], - - [[-4.9461e-03, -1.1765e-03, -5.0370e-03], - [-3.2352e-03, 8.2034e-03, 1.2355e-02], - [ 3.5783e-03, 1.1220e-02, -1.3388e-02]], - - [[-1.8399e-03, 5.9302e-03, 9.6810e-03], - [ 5.0733e-03, 1.0453e-02, -4.8722e-03], - [-1.3514e-02, -1.1929e-03, 1.7507e-03]], - - ..., - - [[-1.4605e-03, 2.2461e-03, -8.0156e-03], - [ 1.0985e-02, 5.1273e-03, -1.1668e-02], - [ 1.4627e-02, 2.7758e-03, 7.2483e-03]], - - [[ 1.3621e-02, -4.5283e-03, 6.4443e-04], - [ 1.0748e-02, 1.1094e-02, 1.4675e-02], - [-9.0625e-03, -6.1689e-03, -2.2046e-03]], - - [[-1.4035e-03, -1.3366e-02, 5.8688e-03], - [ 2.4954e-04, 7.3011e-03, 8.3442e-03], - [-2.7433e-04, -1.0389e-02, 3.1839e-03]]]], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up2.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up2.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up2.conv.double_conv.3.weight', - tensor([[[[ 7.9497e-03, -1.7790e-02, -1.7096e-02], - [-1.6327e-02, 4.0280e-03, -1.9224e-02], - [-4.1614e-03, 2.0345e-02, -1.3011e-02]], - - [[-1.1634e-02, 5.5307e-03, -1.6266e-02], - [-1.1103e-02, 8.3270e-03, -1.5757e-02], - [ 1.5221e-02, -1.2837e-02, 9.6909e-04]], - - [[-1.6213e-02, 6.1893e-03, 1.9967e-02], - [-1.0630e-02, 2.0123e-02, 6.5128e-03], - [-2.0276e-02, 2.0401e-02, 1.5855e-02]], - - ..., - - [[ 1.4602e-02, -9.3187e-03, 1.2791e-02], - [ 3.5288e-03, 8.2964e-03, 1.7589e-02], - [ 4.4983e-03, -4.8159e-04, -3.6260e-03]], - - [[-8.9474e-05, 1.3904e-02, 1.9019e-02], - [-1.9988e-02, -1.3111e-02, 6.4248e-04], - [ 6.8580e-04, 1.7128e-03, 5.4387e-03]], - - [[ 1.4890e-02, -9.2215e-03, -5.8313e-03], - [ 1.1482e-02, -1.2943e-02, 1.7208e-02], - [-2.3544e-03, 8.3377e-04, -1.4550e-02]]], - - - [[[-2.5915e-03, -3.9138e-03, -1.6308e-02], - [-1.9927e-02, -9.3398e-03, -1.9362e-02], - [-1.4066e-02, 9.7209e-03, 1.6551e-02]], - - [[-1.9409e-02, -1.3963e-02, 6.9585e-03], - [-5.1612e-04, -1.9914e-02, 1.8270e-02], - [-7.2831e-03, 1.2477e-02, -2.8120e-04]], - - [[-1.5371e-02, 9.3540e-04, 9.9296e-03], - [-1.0750e-02, -3.9004e-03, 1.7460e-02], - [-1.9144e-02, 2.0190e-02, -1.1884e-02]], - - ..., - - [[ 7.7697e-03, 1.9071e-02, -3.6815e-03], - [ 5.6426e-03, -8.5833e-03, 1.6836e-02], - [ 1.8768e-03, -2.5059e-04, 8.1764e-03]], - - [[ 5.9330e-03, -1.4364e-02, -3.9514e-03], - [ 1.9684e-02, -1.4239e-02, -2.0091e-02], - [ 2.0407e-02, 1.8737e-02, -5.8489e-03]], - - [[ 5.4501e-03, 1.1028e-02, -1.9625e-02], - [-1.3838e-02, -8.5165e-03, 2.6146e-03], - [-6.4134e-03, 1.4367e-02, 1.4903e-02]]], - - - [[[-1.1303e-03, 3.3091e-03, -6.1916e-03], - [-1.5099e-02, -2.1207e-04, 4.5621e-03], - [ 1.7857e-02, -2.7128e-03, -5.4803e-03]], - - [[ 5.9743e-03, 2.0597e-02, 6.6697e-03], - [ 9.8200e-03, 1.3099e-02, 1.7841e-03], - [-1.6089e-02, 1.5824e-02, 8.0234e-04]], - - [[-7.2984e-03, 1.2674e-02, 1.8605e-02], - [ 3.9323e-03, 8.1922e-03, -9.3463e-04], - [-1.9702e-02, 1.4019e-02, 1.6300e-02]], - - ..., - - [[ 1.6479e-02, 1.6218e-02, -1.5242e-02], - [-3.6273e-03, 5.0512e-03, 1.1426e-02], - [ 7.1217e-03, 7.2147e-03, -2.5175e-03]], - - [[ 1.5327e-02, 1.4072e-02, -1.7085e-02], - [ 4.0818e-04, -1.7114e-02, -3.8038e-03], - [-1.5342e-02, -2.0213e-02, -1.3697e-02]], - - [[-2.0410e-02, -1.5656e-02, 5.8427e-03], - [-3.8405e-03, 1.0923e-02, -1.2858e-02], - [ 1.8628e-02, 4.0466e-03, -2.0422e-02]]], - - - ..., - - - [[[-1.9150e-02, 1.2267e-02, 1.7782e-02], - [ 1.3684e-02, -1.9804e-02, -9.2421e-03], - [ 1.7435e-02, 1.7343e-02, -1.8515e-02]], - - [[ 1.8531e-02, -6.2842e-03, -2.1436e-03], - [-6.2577e-03, 1.8332e-02, 1.9857e-02], - [-1.0869e-02, -5.4065e-03, 1.8648e-02]], - - [[-9.8150e-03, -1.9312e-02, -5.3483e-04], - [ 2.2209e-03, 2.0530e-02, -6.2797e-03], - [ 3.1732e-03, 1.7359e-02, 1.0300e-02]], - - ..., - - [[ 5.3619e-03, -8.6172e-03, 1.9207e-02], - [ 1.2767e-02, -3.0699e-03, -9.6391e-03], - [-8.9599e-04, 6.0747e-03, 4.0384e-03]], - - [[-5.2875e-03, 6.5115e-04, 5.4017e-03], - [ 1.5804e-03, 8.6046e-03, 1.7447e-02], - [ 7.5348e-03, 1.8965e-02, 1.9957e-02]], - - [[-1.0331e-02, -1.1320e-02, 1.5131e-02], - [ 2.9035e-03, 1.1799e-02, -1.5353e-03], - [-8.3366e-03, 9.3031e-03, -1.7604e-02]]], - - - [[[ 1.4307e-02, 1.1860e-02, 5.1069e-03], - [-1.5284e-02, 8.2293e-03, -9.5887e-03], - [ 5.3585e-03, 2.0224e-03, 1.5437e-02]], - - [[ 1.2629e-03, 9.5884e-03, 1.5362e-02], - [-4.8209e-03, 1.4933e-02, -1.2048e-02], - [-3.0520e-05, -1.3378e-02, -2.1463e-03]], - - [[-1.1527e-02, 7.7163e-03, -1.2359e-02], - [-2.0476e-02, -1.7779e-02, -6.4546e-03], - [ 3.1536e-03, -1.0851e-04, -1.9629e-02]], - - ..., - - [[-3.6267e-03, -1.7496e-02, -1.8531e-02], - [ 3.0812e-03, -4.4989e-03, -5.3328e-03], - [-3.5008e-03, -1.0352e-02, 2.0659e-02]], - - [[-4.5241e-03, 6.3328e-03, 8.7361e-03], - [-6.1625e-03, -1.3019e-02, 1.6934e-02], - [-3.4158e-03, 8.9188e-03, -1.3646e-02]], - - [[ 1.7996e-02, 1.7854e-02, -1.5007e-02], - [ 2.2617e-04, 1.8391e-02, 2.0008e-02], - [-1.4899e-03, 1.6801e-02, 2.3108e-03]]], - - - [[[-1.5664e-02, 4.3163e-03, 1.2885e-02], - [ 2.6682e-03, 1.6914e-02, 3.5899e-03], - [ 1.9674e-02, -1.1662e-02, -1.2853e-02]], - - [[-3.9540e-04, -1.7787e-02, 9.8214e-03], - [ 1.3250e-02, -2.1693e-03, -4.9136e-03], - [ 1.9610e-02, 1.1362e-03, 2.0132e-02]], - - [[ 1.0343e-03, 8.4445e-03, 1.5850e-02], - [ 1.1820e-02, 1.0775e-03, -1.8296e-02], - [-1.1273e-02, 2.6236e-03, 1.3343e-02]], - - ..., - - [[ 1.6003e-02, 5.4038e-03, -3.7506e-03], - [-2.4944e-03, -8.0193e-03, -6.6061e-03], - [-1.2857e-02, 1.3497e-02, 8.1090e-03]], - - [[-1.8006e-02, -8.5612e-03, 1.9954e-02], - [-3.3323e-03, -7.7578e-04, 1.2751e-02], - [ 8.0447e-03, -3.9115e-04, 2.0177e-02]], - - [[-1.7435e-02, -8.4071e-03, -9.7204e-03], - [ 1.8257e-02, -1.7279e-02, -1.8781e-02], - [ 1.5807e-02, -1.8718e-02, 2.0478e-02]]]], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up2.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up3.conv.double_conv.0.weight', - tensor([[[[ 6.5360e-04, -1.1478e-02, -1.2108e-02], - [-1.3628e-02, -9.4881e-03, 4.5922e-03], - [-1.3436e-03, -9.4868e-03, -4.5939e-03]], - - [[ 1.0784e-02, -1.2223e-03, -1.5292e-02], - [-5.8855e-03, -1.8780e-02, -8.7660e-03], - [ 1.8609e-03, 1.2953e-02, -1.4010e-02]], - - [[-6.7148e-03, -1.5341e-02, 1.2591e-02], - [ 7.5377e-03, 1.1052e-02, -1.1975e-02], - [-1.9517e-02, -1.9137e-02, -7.4886e-04]], - - ..., - - [[ 2.0512e-02, -3.9202e-03, 1.4523e-02], - [ 1.2714e-02, 1.3007e-02, 6.8676e-04], - [-1.7327e-02, -8.6569e-03, 1.2416e-03]], - - [[-2.0188e-02, -1.2779e-02, -7.3068e-03], - [-9.3873e-03, 1.3301e-02, 1.6646e-02], - [-1.7413e-02, 1.7294e-03, -1.5510e-02]], - - [[-1.4983e-02, 1.7590e-02, 1.2623e-02], - [-2.8354e-03, -2.8116e-03, 1.7879e-02], - [-1.7114e-02, 1.2573e-02, 1.0661e-02]]], - - - [[[ 1.1610e-02, -1.0957e-02, 1.8087e-02], - [ 1.2981e-02, -1.2237e-02, -1.3717e-02], - [-8.9545e-03, 1.0519e-02, -1.8804e-02]], - - [[-5.7298e-03, 1.7915e-02, -3.1621e-03], - [ 7.9957e-03, 3.4881e-03, -1.5158e-02], - [ 1.8798e-03, 1.6252e-02, -1.5315e-03]], - - [[-4.2252e-03, 8.9630e-03, -7.0830e-03], - [-1.0045e-02, -2.2602e-03, 7.8443e-03], - [-2.6957e-03, 1.3411e-02, 4.8645e-03]], - - ..., - - [[-5.3712e-03, -1.0452e-02, -1.6330e-02], - [-1.0432e-02, -1.9882e-02, -1.6169e-02], - [-7.2622e-03, -1.8196e-02, -6.7982e-03]], - - [[-7.0105e-05, -1.2175e-02, -1.0749e-02], - [ 1.1441e-02, 3.5827e-03, 1.7456e-02], - [-4.9655e-03, 1.9057e-03, -1.7193e-02]], - - [[ 1.7013e-02, 3.1988e-04, 5.7411e-03], - [-3.7235e-04, -1.8450e-03, 3.6671e-03], - [ 1.6459e-02, 1.1565e-02, 1.9842e-02]]], - - - [[[ 1.6914e-02, -1.2111e-02, 1.4786e-02], - [ 7.7207e-03, 2.5537e-03, 4.0743e-03], - [ 1.0419e-04, 1.0066e-02, -8.1808e-03]], - - [[ 5.5924e-03, 3.0751e-03, -1.4255e-02], - [ 1.4609e-02, -6.0797e-03, 1.8090e-02], - [-2.0465e-02, -1.9647e-02, 1.9963e-02]], - - [[ 1.7703e-02, 9.7912e-04, -1.7088e-02], - [-3.0930e-03, 1.0013e-02, 1.5110e-02], - [-1.5153e-02, -6.5340e-03, 1.6374e-02]], - - ..., - - [[-1.0198e-02, 1.8628e-02, -7.3407e-03], - [-2.0066e-02, 1.8155e-02, 8.2106e-03], - [-5.0477e-04, -5.1193e-03, -1.9685e-02]], - - [[ 7.3187e-03, -1.8577e-02, -1.9180e-02], - [ 1.3858e-02, -1.6733e-02, -5.7723e-04], - [ 1.2103e-02, 8.6336e-03, -2.0067e-02]], - - [[-3.8180e-03, 1.9922e-03, -1.2753e-02], - [ 1.9889e-02, 1.9218e-02, 1.2516e-02], - [-1.6966e-02, -1.9937e-02, 6.3545e-03]]], - - - ..., - - - [[[ 1.4647e-02, 1.3599e-02, -1.1497e-02], - [ 1.0819e-02, 6.2655e-03, 8.2514e-03], - [ 9.7814e-03, 1.5446e-03, 5.0288e-03]], - - [[-3.7955e-03, 1.2494e-02, -7.8703e-03], - [ 4.0349e-03, 1.4197e-02, -1.1018e-02], - [ 1.2082e-02, -1.9828e-03, 1.1344e-02]], - - [[-1.6060e-02, 5.2254e-03, 1.3679e-02], - [ 2.3551e-03, -5.8034e-03, -1.0188e-02], - [-7.8099e-03, -7.3378e-03, -1.6845e-02]], - - ..., - - [[ 4.8750e-03, -1.5202e-02, -8.3033e-03], - [-1.4143e-02, 9.6245e-03, 1.0595e-03], - [-6.6992e-03, 1.8018e-02, 1.4028e-02]], - - [[-2.4361e-03, 8.2809e-03, -6.7384e-03], - [-2.4594e-03, 4.9077e-03, 1.8375e-02], - [-4.1593e-03, -3.5705e-03, -1.3529e-02]], - - [[-1.7012e-02, 1.9748e-02, 1.9104e-02], - [-1.4910e-02, -1.9546e-02, 1.1406e-02], - [-1.7544e-04, 1.5866e-02, 3.8805e-03]]], - - - [[[-4.2661e-03, 2.0544e-02, -2.0223e-02], - [-1.7558e-02, 1.2315e-02, -1.1358e-03], - [-9.5695e-03, 1.7591e-02, -1.8437e-02]], - - [[-7.6622e-03, 1.3523e-02, -1.2805e-02], - [ 4.2950e-03, -7.9838e-03, -8.6255e-03], - [ 1.5282e-03, -8.8083e-03, 5.8126e-03]], - - [[ 1.2428e-02, 1.6649e-03, -1.8423e-02], - [ 3.3804e-03, -9.0342e-03, -2.8731e-03], - [ 2.8868e-03, -4.1382e-03, 1.6776e-02]], - - ..., - - [[ 1.6678e-02, -4.2476e-03, -9.8835e-03], - [-9.7655e-03, -3.7623e-03, 5.0571e-03], - [ 1.0131e-02, -7.6768e-03, -5.4080e-04]], - - [[ 1.7999e-02, 5.0342e-03, -2.2092e-03], - [ 1.2079e-02, -8.4492e-03, -1.6282e-02], - [-2.0245e-02, 4.7685e-03, -9.7620e-03]], - - [[-4.6216e-03, -1.1652e-02, -1.2818e-02], - [ 1.2088e-02, -9.3832e-03, -4.1677e-03], - [ 1.1476e-02, -4.4116e-03, -2.0018e-02]]], - - - [[[ 3.7413e-03, -1.8938e-02, -1.2220e-02], - [ 1.7449e-02, 9.5147e-03, 2.5178e-03], - [-6.6552e-03, 2.6520e-03, -2.0583e-02]], - - [[ 1.9046e-02, 1.7330e-03, 3.4585e-03], - [ 1.6316e-02, -1.8740e-02, 1.6343e-02], - [-8.1862e-03, -1.9654e-02, 6.7754e-04]], - - [[-7.8348e-03, -1.0483e-02, -1.1580e-02], - [ 2.0537e-02, -1.2595e-02, 4.6942e-03], - [ 5.1139e-04, -8.2631e-04, -1.3213e-03]], - - ..., - - [[ 2.0120e-02, -1.8718e-02, 7.1457e-03], - [ 8.7498e-03, -8.0881e-03, -8.0977e-03], - [-1.8490e-02, -2.0089e-02, 2.6450e-04]], - - [[ 3.0537e-03, -8.0446e-03, -9.7033e-03], - [ 2.9420e-03, 1.5974e-02, -8.4568e-03], - [-4.6306e-03, 7.5076e-03, -9.9498e-04]], - - [[-1.7441e-02, -4.8928e-03, 2.0088e-02], - [ 1.1744e-02, -1.9409e-02, -1.2495e-02], - [ 1.6826e-02, -6.6388e-03, -1.3236e-03]]]], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up3.conv.double_conv.3.weight', - tensor([[[[-6.2617e-03, 5.1519e-03, 1.0535e-02], - [ 2.2614e-02, 2.3770e-02, 7.1172e-03], - [-9.0252e-04, -2.0448e-02, -2.0432e-02]], - - [[-5.3073e-03, 2.0543e-03, -1.9999e-02], - [ 1.7058e-02, 4.4323e-03, 2.0256e-02], - [ 1.6059e-02, 7.8848e-03, 2.6898e-02]], - - [[ 2.4905e-02, -9.5489e-04, -4.0310e-05], - [ 2.6839e-02, 1.0395e-02, -1.1824e-02], - [ 1.3696e-02, -4.7753e-03, 4.4547e-03]], - - ..., - - [[-4.0551e-03, -2.0774e-02, 5.0831e-03], - [ 8.9578e-03, -2.4251e-02, -2.7485e-02], - [-1.1212e-02, -3.5667e-03, -2.9207e-02]], - - [[-2.5817e-02, 2.8529e-02, -2.4398e-02], - [ 2.0831e-02, 1.4292e-02, -1.8673e-02], - [-8.5094e-04, -1.2406e-03, 3.7525e-04]], - - [[ 2.1931e-03, 6.2044e-03, -9.8672e-03], - [-6.0165e-03, 7.0416e-03, -3.2293e-03], - [-1.1025e-02, -1.1666e-02, -1.8839e-02]]], - - - [[[-1.9571e-02, 1.3345e-02, -3.1977e-03], - [-2.4555e-02, -3.5323e-03, -2.8703e-02], - [-1.5313e-02, 2.1116e-02, -1.0758e-03]], - - [[-1.0014e-02, 1.1471e-02, -2.2742e-02], - [ 2.5164e-02, 1.5579e-02, -2.2211e-02], - [ 2.7174e-02, 1.9207e-02, -1.7626e-02]], - - [[ 2.7689e-02, -5.7403e-03, -1.0863e-02], - [ 5.0870e-03, 6.7373e-03, -2.0150e-02], - [ 2.9319e-02, -9.6329e-03, -2.0385e-02]], - - ..., - - [[-2.4959e-02, 1.2766e-03, 2.4264e-03], - [ 2.1160e-02, -2.1553e-02, 1.6825e-02], - [ 2.6579e-02, 6.6060e-03, 2.5650e-02]], - - [[ 4.5595e-03, 1.9319e-03, -2.5173e-02], - [-2.3925e-02, -8.3372e-03, -9.0146e-03], - [ 1.7461e-02, -2.5896e-02, -1.8144e-02]], - - [[ 2.5831e-02, -2.1761e-02, -2.9396e-02], - [ 2.7635e-02, -1.2928e-02, 5.8588e-03], - [-2.0192e-02, 4.7528e-03, 2.8390e-02]]], - - - [[[ 1.8739e-03, -1.3140e-02, 2.6128e-02], - [ 1.1566e-02, 3.5446e-03, -5.1995e-03], - [ 5.5016e-03, -4.5294e-03, 1.9544e-02]], - - [[-9.9646e-03, 2.7664e-02, 1.1371e-02], - [ 1.2055e-02, 1.6825e-02, -1.1272e-02], - [ 1.3120e-02, 1.7465e-02, 1.1575e-02]], - - [[-4.8596e-03, 9.3461e-03, 2.0105e-02], - [ 1.2126e-02, -2.2240e-03, 1.3572e-02], - [-2.8769e-02, -7.9955e-03, -1.2733e-02]], - - ..., - - [[ 2.5646e-02, 1.6559e-02, -2.2198e-02], - [-3.0433e-03, 2.7646e-02, 2.8915e-02], - [ 2.3706e-02, -2.5853e-02, -8.8919e-05]], - - [[ 1.9385e-02, 9.4940e-03, -1.7507e-02], - [-1.0995e-02, -1.9027e-02, 2.6517e-02], - [ 6.5096e-03, 8.3432e-03, 4.3078e-03]], - - [[-1.2435e-02, -1.2040e-02, 6.4921e-03], - [-1.9559e-02, 2.2276e-02, 1.2324e-02], - [ 7.4537e-03, 5.5965e-03, -2.4149e-02]]], - - - ..., - - - [[[-2.9395e-02, 2.0365e-02, -1.6215e-02], - [ 1.8015e-02, 1.1132e-02, -5.3747e-03], - [ 4.5775e-03, 1.9513e-02, 5.4436e-03]], - - [[ 2.0589e-02, 4.0204e-03, -7.1212e-03], - [-1.7708e-02, -2.7610e-02, 2.9521e-03], - [ 1.4294e-02, -6.5115e-03, -1.4379e-03]], - - [[ 2.8011e-02, 1.6216e-02, 2.5210e-02], - [-1.6498e-02, 1.0523e-02, 2.6155e-02], - [ 1.6074e-02, -8.3713e-03, 2.2026e-02]], - - ..., - - [[-1.3617e-02, -1.4065e-02, -2.3103e-02], - [ 2.4879e-02, -8.9402e-03, 3.0990e-03], - [ 1.3965e-03, -2.5021e-02, -2.0546e-02]], - - [[ 2.0246e-03, -7.9078e-03, -2.6747e-02], - [ 2.9376e-02, -6.2544e-03, -1.8549e-02], - [ 1.5150e-02, -3.9595e-03, 2.3443e-03]], - - [[-3.6495e-03, -1.0052e-02, 1.2397e-03], - [ 3.8338e-03, -2.8786e-02, -5.1455e-03], - [-1.5915e-02, 2.8991e-02, 6.3032e-03]]], - - - [[[-2.0503e-02, -2.8574e-02, 1.7111e-02], - [-1.5106e-02, 2.2639e-02, 3.2666e-03], - [ 1.1444e-02, -9.7533e-03, 1.8418e-02]], - - [[-2.8729e-02, -1.7639e-02, 1.5558e-02], - [ 2.1907e-02, 2.6665e-02, -2.0398e-02], - [ 4.7236e-03, 2.2406e-02, -1.1982e-03]], - - [[-6.9613e-03, 1.6444e-02, 1.0986e-04], - [-2.5102e-02, 2.7951e-02, 1.8224e-02], - [-9.3261e-03, -2.2952e-02, -1.9339e-02]], - - ..., - - [[ 6.3333e-03, -8.1322e-03, 3.5560e-03], - [-2.3900e-02, -2.8754e-02, -2.0715e-02], - [ 1.3923e-02, 1.0834e-02, -1.1983e-02]], - - [[-1.2872e-02, 6.1885e-03, -1.2684e-02], - [ 8.5061e-03, -1.3273e-03, -1.6401e-03], - [ 3.5566e-03, 1.4142e-02, 7.0110e-03]], - - [[ 1.2880e-02, 6.1687e-03, -9.6315e-03], - [ 1.5918e-02, 2.2629e-03, -2.7104e-03], - [-8.4794e-04, 2.0819e-02, -2.2515e-02]]], - - - [[[ 8.6197e-03, 2.3163e-02, 1.9551e-02], - [ 2.2528e-02, 1.8106e-02, 1.0401e-02], - [-1.7955e-03, -5.1270e-03, 9.9206e-03]], - - [[ 2.3529e-02, 1.5074e-02, -1.5779e-02], - [-2.8125e-02, -1.9706e-02, -2.7739e-02], - [ 1.2969e-02, -6.8372e-03, -1.8700e-02]], - - [[-1.6456e-02, -1.9319e-02, 2.9451e-02], - [-4.3081e-03, 1.6394e-02, 2.0039e-02], - [-2.6109e-02, 1.8154e-02, -4.1342e-03]], - - ..., - - [[ 1.4506e-02, -2.9666e-03, 3.6261e-03], - [ 1.6303e-02, -4.9343e-03, -1.7006e-02], - [ 2.6239e-02, -2.3413e-02, 1.2565e-02]], - - [[-7.7776e-03, 2.6909e-02, 1.0444e-02], - [-8.7274e-03, -8.3104e-03, 2.3266e-03], - [-2.4073e-02, -1.0433e-02, -1.1619e-02]], - - [[-1.0362e-02, -2.3291e-02, -1.0579e-02], - [ 1.6419e-02, 2.0854e-02, 2.4889e-02], - [ 1.3606e-03, -9.4291e-03, -1.6355e-03]]]], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up3.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up3.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up3.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up4.conv.double_conv.0.weight', - tensor([[[[-2.4477e-02, -1.7234e-02, 2.2003e-03], - [-7.8829e-03, 6.1736e-03, 1.4644e-02], - [ 9.7539e-03, 5.7497e-04, -2.1407e-02]], - - [[ 2.5615e-02, 6.0152e-03, -2.8486e-02], - [ 2.1189e-02, 6.7674e-03, -1.4792e-03], - [ 2.2734e-02, 1.7544e-03, -1.0535e-02]], - - [[ 2.1016e-02, 3.9310e-03, 5.9241e-03], - [-9.3318e-04, 1.3821e-02, 2.8222e-02], - [ 7.3732e-03, 2.3611e-03, 2.2986e-02]], - - ..., - - [[-2.6076e-02, 9.7759e-03, 1.7446e-02], - [-4.6081e-03, -7.8919e-03, -1.3171e-02], - [ 3.6483e-03, 5.5107e-04, -2.6154e-02]], - - [[ 2.4815e-02, 6.5554e-04, -2.6840e-02], - [-5.4893e-03, -1.2978e-02, -7.7000e-03], - [ 1.7822e-02, -2.0376e-02, 1.8151e-02]], - - [[-1.3709e-02, -2.1298e-02, 1.4319e-02], - [-1.1540e-02, 2.9451e-03, 4.6603e-03], - [ 1.6498e-02, -2.2247e-02, -2.6400e-02]]], - - - [[[-2.9053e-02, 6.6088e-03, 2.8600e-02], - [-8.5117e-03, 3.7488e-03, 2.5909e-02], - [-6.6344e-03, -1.8867e-02, 2.1232e-02]], - - [[ 2.7659e-02, -1.5675e-02, -1.2514e-02], - [ 6.8806e-03, -2.4540e-02, -2.0591e-02], - [-6.2750e-03, -2.9055e-02, 2.7674e-02]], - - [[ 6.6344e-03, -2.5097e-02, -2.7987e-02], - [-1.9412e-02, -1.7099e-02, 2.4543e-02], - [-6.0892e-03, -1.9663e-02, -2.1830e-02]], - - ..., - - [[-2.4330e-02, -5.3355e-04, 1.6593e-02], - [-1.5296e-02, -1.2302e-02, -2.1773e-02], - [-2.4805e-02, -2.7568e-02, -5.2265e-03]], - - [[ 1.4438e-02, -1.1498e-02, -5.8588e-03], - [ 2.3541e-02, 2.8545e-02, -2.1781e-02], - [ 2.1298e-02, -1.4740e-02, 2.0063e-02]], - - [[-1.4228e-02, 2.7397e-02, 1.9363e-03], - [ 1.3088e-02, 1.8878e-02, 2.5326e-02], - [-2.7118e-02, 1.8095e-02, 1.5554e-02]]], - - - [[[-2.7807e-02, 2.8756e-02, -2.4947e-02], - [ 2.8239e-03, 6.4158e-03, 1.7847e-02], - [-2.1316e-02, -1.1236e-02, -7.1000e-03]], - - [[-2.2642e-02, -2.9162e-02, -2.7960e-02], - [ 2.2822e-02, 2.6365e-02, -2.2013e-02], - [-4.3668e-03, 5.9663e-03, -2.2929e-02]], - - [[ 2.6231e-02, 6.2513e-04, -1.5292e-02], - [-2.3744e-02, 1.0287e-02, -1.7989e-02], - [ 1.4567e-02, -5.4238e-04, -1.8888e-03]], - - ..., - - [[ 8.2702e-03, -3.9680e-03, 4.4591e-03], - [ 1.2113e-02, 1.9210e-02, -2.1732e-02], - [ 1.8309e-02, -2.5562e-02, -3.4519e-03]], - - [[ 2.0920e-02, 5.1383e-03, -2.8351e-02], - [ 2.4168e-02, 2.4032e-03, 4.4554e-03], - [-9.5799e-03, -4.6795e-03, 2.1697e-02]], - - [[ 5.9437e-03, 1.4123e-03, -8.3815e-03], - [ 2.3132e-02, -2.6785e-02, -1.6763e-02], - [-9.6515e-03, -2.1222e-02, 2.4000e-02]]], - - - ..., - - - [[[-2.3391e-02, 2.3395e-02, -2.1791e-02], - [ 1.8008e-02, 5.3447e-03, 2.3465e-02], - [ 1.7817e-02, -3.0541e-04, 1.8585e-02]], - - [[-1.8773e-02, 9.5143e-03, -9.0805e-03], - [-1.1845e-02, -2.0910e-02, 7.6076e-03], - [-1.9462e-03, 2.5138e-02, -2.8411e-02]], - - [[ 1.2022e-02, -1.4268e-02, 1.6846e-02], - [-1.5587e-02, -2.2586e-02, 1.7113e-03], - [-2.0474e-02, 2.1718e-02, 2.6473e-02]], - - ..., - - [[-9.5288e-04, -2.0567e-02, -5.8081e-03], - [-9.2609e-03, 2.2689e-02, 7.9880e-03], - [-2.3267e-02, -2.2080e-03, -3.7323e-04]], - - [[ 7.0031e-03, 1.5936e-02, -1.7355e-02], - [ 9.1528e-03, 6.0140e-04, -4.6582e-03], - [-2.2403e-03, 1.1589e-02, 1.3004e-02]], - - [[ 7.5902e-03, -2.7939e-02, 1.6827e-02], - [-1.1944e-02, -2.1053e-02, 7.7404e-03], - [-2.4648e-02, 1.0781e-02, 1.6477e-02]]], - - - [[[ 2.8526e-02, -8.3310e-03, -3.3514e-03], - [ 8.7738e-03, 3.3132e-03, -2.3501e-03], - [-1.5227e-02, -6.8209e-03, 7.2189e-03]], - - [[ 3.2429e-03, 2.9305e-02, 7.2086e-03], - [-2.8544e-02, -2.1567e-02, -7.0302e-03], - [-1.2484e-02, 4.2848e-03, -1.5662e-02]], - - [[ 1.4185e-03, 6.2046e-03, 2.1498e-02], - [ 1.4784e-02, -2.4929e-02, -2.7400e-02], - [-2.6303e-05, 2.4616e-02, -1.2550e-02]], - - ..., - - [[-1.1245e-02, -6.3400e-03, -1.4372e-02], - [-2.6327e-02, -9.7659e-03, -1.9709e-03], - [-2.4333e-03, 5.2920e-03, 1.3149e-02]], - - [[ 2.8700e-03, 7.3612e-03, 2.3691e-03], - [-2.7523e-02, 1.5241e-02, 1.3450e-02], - [ 2.5740e-03, -3.4698e-03, -1.3424e-02]], - - [[-1.4515e-02, -2.1749e-02, 1.3343e-02], - [ 2.5754e-02, 3.5074e-03, 1.9747e-02], - [ 2.7382e-03, 1.4910e-02, -2.2954e-02]]], - - - [[[-4.3458e-03, -1.3681e-02, 1.8517e-02], - [-1.4100e-02, 2.4556e-02, -1.6581e-03], - [-2.7384e-02, 1.7085e-02, 1.9694e-02]], - - [[ 5.4223e-03, -1.7057e-02, -6.0624e-03], - [ 2.8144e-02, -1.2404e-02, -9.2200e-05], - [ 8.0187e-03, -2.4534e-02, -6.1641e-03]], - - [[ 4.4628e-03, -2.3212e-02, 1.8625e-02], - [ 2.0626e-03, -1.1065e-02, 2.2116e-02], - [-2.3691e-02, 7.7271e-03, 2.3667e-02]], - - ..., - - [[ 1.6437e-02, 1.7844e-02, 4.2858e-03], - [ 1.8507e-02, -1.4175e-02, 6.2452e-03], - [-2.2591e-02, -1.6163e-02, 2.8446e-02]], - - [[ 7.0578e-03, 8.5772e-03, 1.2336e-03], - [-2.7270e-02, -4.7153e-03, 1.8364e-02], - [-1.7723e-02, -6.1744e-03, -2.6519e-02]], - - [[ 2.6981e-03, 2.3110e-02, -1.9544e-02], - [ 2.8593e-02, 2.6731e-02, 2.1887e-02], - [-9.6571e-04, 1.7459e-02, 3.4465e-03]]]], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.1.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.1.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.1.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.up4.conv.double_conv.3.weight', - tensor([[[[ 3.1426e-03, -3.7804e-02, -1.9636e-03], - [-3.3168e-02, 2.4599e-03, -2.5361e-02], - [ 2.0291e-02, -3.1659e-02, -2.2596e-02]], - - [[-8.4917e-03, -3.0465e-04, -2.1817e-02], - [ 2.9646e-03, 2.4069e-02, -2.6871e-02], - [ 2.7976e-02, -2.9426e-02, -1.9063e-02]], - - [[ 3.4714e-02, 2.5515e-02, 2.2645e-03], - [ 1.1169e-02, -1.5637e-02, -3.2919e-02], - [-1.3760e-02, 1.0523e-03, 3.2319e-02]], - - ..., - - [[-2.6632e-02, 1.5643e-02, -3.1304e-03], - [-6.5018e-03, 1.7912e-02, -1.7220e-02], - [ 3.1036e-02, 3.4784e-02, -1.4025e-02]], - - [[ 3.3626e-02, -2.4100e-02, 3.6708e-02], - [-2.1758e-02, -1.4161e-02, -2.8572e-02], - [ 5.2657e-03, 2.2184e-02, -1.2249e-02]], - - [[ 3.9889e-02, -9.9724e-03, 1.4062e-03], - [ 1.6991e-02, -5.8726e-03, -1.2741e-02], - [-2.3483e-02, 3.6793e-02, 1.0728e-03]]], - - - [[[-1.1431e-02, 2.8004e-03, -2.1472e-02], - [-4.7250e-03, 3.1195e-02, -3.4145e-02], - [-3.9074e-02, -9.0451e-03, 3.6595e-02]], - - [[-3.4954e-02, -2.8686e-02, 7.4445e-03], - [-3.4594e-02, -1.5361e-02, 3.2916e-02], - [ 7.3619e-03, -2.8733e-02, -2.8171e-02]], - - [[-1.6132e-02, 9.1593e-03, -1.5983e-03], - [ 1.9147e-02, -3.0231e-02, 3.5481e-02], - [-2.8131e-02, -1.5797e-02, 1.4560e-02]], - - ..., - - [[-2.0996e-03, -2.3411e-02, -1.1860e-02], - [ 3.8093e-02, 3.5264e-02, 3.0247e-02], - [ 1.3708e-02, -2.7209e-02, 3.5293e-02]], - - [[-1.4823e-02, -1.3127e-02, -1.8602e-02], - [ 3.1382e-02, -2.8936e-02, -3.5547e-02], - [ 2.8250e-02, 2.5477e-02, -1.1684e-02]], - - [[-3.4762e-03, -2.8827e-02, 2.2720e-02], - [ 1.9048e-02, 1.9151e-02, 4.8282e-03], - [ 3.6979e-02, 1.1263e-02, 1.4983e-02]]], - - - [[[ 4.0528e-02, -1.5267e-02, 4.1640e-02], - [ 1.4580e-02, 2.1254e-03, 2.1454e-02], - [ 2.3367e-02, 2.4535e-02, -2.9547e-02]], - - [[ 1.2478e-02, -3.2175e-02, 3.1261e-02], - [-2.5070e-02, 1.0443e-02, -1.7667e-02], - [-3.9835e-03, -1.4524e-02, 2.9181e-02]], - - [[ 8.7496e-03, 1.6791e-02, -3.3366e-02], - [ 3.9007e-02, 1.0403e-02, 3.8254e-02], - [-1.2029e-02, 1.1168e-02, -1.9442e-02]], - - ..., - - [[ 2.2030e-02, 1.0903e-02, -1.4863e-02], - [-1.3346e-02, -3.5193e-02, 3.2643e-02], - [-3.8632e-02, -8.3370e-03, 1.8904e-02]], - - [[-3.9616e-02, -2.5855e-02, 3.3651e-02], - [ 3.9193e-02, 2.7768e-02, 1.4065e-02], - [-8.8412e-03, -2.1744e-02, -2.0466e-02]], - - [[-9.5175e-03, -3.2115e-02, 2.8135e-02], - [-3.5135e-02, -3.5658e-02, -1.6859e-02], - [ 3.8371e-02, 4.0490e-03, 2.5179e-02]]], - - - ..., - - - [[[-1.6391e-02, 5.2747e-03, 3.4211e-02], - [-3.6951e-02, -2.0392e-02, 1.9124e-02], - [-4.0592e-03, -2.1158e-02, -5.6858e-03]], - - [[-1.2450e-02, -7.7264e-03, -2.7716e-02], - [ 3.4721e-02, 2.8399e-02, 3.7686e-02], - [ 3.6166e-02, 1.7743e-02, -3.3313e-02]], - - [[-2.4009e-03, 2.7938e-02, 8.2821e-03], - [-1.0567e-02, -1.0721e-02, 3.9096e-02], - [-1.0329e-02, 3.5188e-04, 1.9992e-02]], - - ..., - - [[ 4.0091e-02, 2.7190e-02, -3.8786e-02], - [ 3.7762e-02, 1.6390e-02, -4.1539e-02], - [ 2.8608e-02, -3.4842e-02, -1.5290e-02]], - - [[ 2.5458e-02, 3.8800e-02, 1.8157e-02], - [-3.0404e-02, -2.8858e-02, -3.7904e-02], - [-1.7384e-02, 1.3624e-02, -3.8238e-02]], - - [[-3.4968e-02, -2.1631e-02, 1.8572e-02], - [ 3.9958e-02, 3.1534e-02, -2.6919e-03], - [ 2.9025e-02, -2.5323e-02, 1.8108e-02]]], - - - [[[ 1.4118e-02, 1.3075e-02, 7.9425e-04], - [-1.5709e-02, 2.2579e-02, -3.4406e-03], - [ 3.9156e-02, -5.3889e-03, -4.1343e-02]], - - [[-1.1825e-03, -7.4790e-03, 3.0482e-02], - [-4.0314e-02, -1.9415e-02, -5.4573e-05], - [-3.6205e-03, -4.0538e-02, 1.6526e-02]], - - [[ 3.1517e-02, 1.2538e-02, 1.7676e-03], - [ 2.2461e-02, -2.9065e-02, 3.1906e-02], - [-3.9866e-02, -2.3473e-02, 4.0793e-02]], - - ..., - - [[-2.2015e-02, -1.4035e-03, -3.4191e-02], - [ 3.4649e-02, 2.7996e-02, 2.5186e-02], - [-2.6122e-02, -3.7787e-02, -3.5784e-02]], - - [[-3.5926e-03, -1.5855e-02, -2.4558e-02], - [-3.5714e-02, 4.0327e-02, 3.9204e-02], - [ 1.6102e-03, -2.2671e-02, 3.9940e-02]], - - [[-4.1120e-02, 6.4742e-03, 1.8772e-02], - [ 3.4173e-02, 5.7441e-04, -1.9311e-02], - [-1.4727e-02, 1.7990e-02, -1.8958e-02]]], - - - [[[ 2.9624e-02, -8.9972e-03, 4.0076e-02], - [ 1.4882e-02, -1.9439e-02, 8.6693e-03], - [-4.0603e-02, 1.5571e-02, -2.9153e-02]], - - [[-3.5557e-02, 1.8946e-04, 2.2721e-02], - [ 2.9935e-03, 8.9930e-03, -2.0757e-02], - [ 2.0412e-02, 5.7608e-03, 2.6245e-02]], - - [[-6.2162e-03, -7.0439e-04, 1.3922e-02], - [-9.8026e-03, 2.8211e-02, -3.7612e-03], - [-3.1022e-02, -2.4241e-02, 2.0704e-03]], - - ..., - - [[ 1.8656e-05, -3.5449e-02, -1.9142e-02], - [-3.7448e-02, -3.8316e-02, 3.6445e-02], - [ 1.8268e-02, -3.2087e-02, -3.0568e-02]], - - [[-2.6703e-02, -7.0255e-04, 1.3062e-02], - [ 9.2566e-03, 3.0957e-02, -3.9456e-02], - [ 2.6741e-02, 1.7924e-02, 2.6267e-02]], - - [[-3.0110e-02, -1.6314e-03, -2.8098e-02], - [ 2.0860e-02, 1.5562e-02, 2.9175e-02], - [ 9.1814e-03, 2.6883e-02, 2.8830e-02]]]], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.weight', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.bias', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.4.running_mean', - tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., - 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.], - device='cuda:0')), - ('module.module.up4.conv.double_conv.4.running_var', - tensor([1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., 1., - 1., 1., 1., 1., 1., 1., 1., 1., 1., 1.], device='cuda:0')), - ('module.module.up4.conv.double_conv.4.num_batches_tracked', - tensor(0, device='cuda:0')), - ('module.module.outc.conv.weight', - tensor([[[[ 0.0984]], - - [[-0.0668]], - - [[-0.0782]], - - [[ 0.0068]], - - [[ 0.0089]], - - [[-0.0501]], - - [[-0.0261]], - - [[ 0.0791]], - - [[-0.1128]], - - [[ 0.0102]], - - [[ 0.0258]], - - [[-0.0357]], - - [[-0.0674]], - - [[ 0.1242]], - - [[ 0.0549]], - - [[-0.0972]], - - [[-0.1207]], - - [[ 0.1104]], - - [[ 0.0293]], - - [[-0.1182]], - - [[ 0.1166]], - - [[ 0.1038]], - - [[-0.0085]], - - [[-0.0039]], - - [[ 0.0621]], - - [[ 0.0331]], - - [[ 0.0618]], - - [[ 0.0310]], - - [[ 0.1245]], - - [[-0.1027]], - - [[ 0.0523]], - - [[ 0.0731]], - - [[-0.0253]], - - [[-0.0495]], - - [[ 0.1218]], - - [[ 0.1106]], - - [[ 0.0079]], - - [[-0.1117]], - - [[ 0.1123]], - - [[-0.0453]], - - [[ 0.0750]], - - [[ 0.0378]], - - [[ 0.1220]], - - [[-0.1052]], - - [[-0.0909]], - - [[-0.0841]], - - [[-0.0028]], - - [[ 0.0207]], - - [[-0.0161]], - - [[-0.0815]], - - [[ 0.0737]], - - [[-0.0565]], - - [[-0.0620]], - - [[ 0.0920]], - - [[ 0.1087]], - - [[ 0.0442]], - - [[-0.0377]], - - [[-0.0474]], - - [[ 0.0807]], - - [[ 0.0298]], - - [[ 0.0700]], - - [[ 0.0749]], - - [[ 0.0847]], - - [[-0.1145]]]], device='cuda:0')), - ('module.module.outc.conv.bias', - tensor([-0.0712], device='cuda:0'))]) - - - - -```python - -``` - -**接下来进入第六章的内容,我们以前面已经搭建好的U-Net模型为例,探索如何更优雅地训练PyTorch模型。** -**首先我们使用[Carvana](kaggle.com/competitions/carvana-image-masking-challenge)数据集,实现一个基本的U-Net训练过程** - - -```python -from torch.utils.data import Dataset, DataLoader -from torchvision import transforms -import torch.optim as optim -import matplotlib.pyplot as plt -import PIL -from sklearn.model_selection import train_test_split - -os.environ['CUDA_VISIBLE_DEVICES'] = '2,3' -``` - - -```python -class CarvanaDataset(Dataset): - def __init__(self, base_dir, idx_list, mode="train", transform=None): - self.base_dir = base_dir - self.idx_list = idx_list - self.images = os.listdir(base_dir+"train") - self.masks = os.listdir(base_dir+"train_masks") - self.mode = mode - self.transform = transform - - def __len__(self): - return len(self.idx_list) - - def __getitem__(self, index): - image_file = self.images[self.idx_list[index]] - mask_file = image_file[:-4]+"_mask.gif" - image = PIL.Image.open(os.path.join(base_dir, "train", image_file)) - if self.mode=="train": - mask = PIL.Image.open(os.path.join(base_dir, "train_masks", mask_file)) - if self.transform is not None: - image = self.transform(image) - mask = self.transform(mask) - mask[mask!=0] = 1.0 - return image, mask.float() - else: - if self.transform is not None: - image = self.transform(image) - return image - -base_dir = "./" -transform = transforms.Compose([transforms.Resize((256,256)), transforms.ToTensor()]) -train_idxs, val_idxs = train_test_split(range(len(os.listdir(base_dir+"train_masks"))), test_size=0.3) -train_data = CarvanaDataset(base_dir, train_idxs, transform=transform) -val_data = CarvanaDataset(base_dir, val_idxs, transform=transform) -train_loader = DataLoader(train_data, batch_size=32, num_workers=4, shuffle=True) -val_loader = DataLoader(train_data, batch_size=32, num_workers=4, shuffle=False) - -``` - - -```python -image, mask = next(iter(train_loader)) -plt.subplot(121) -plt.imshow(image[0,0]) -plt.subplot(122) -plt.imshow(mask[0,0], cmap="gray") -``` - - - - - - - - - - -![png](output_44_1.png) - - - - -```python -# 使用Binary Cross Entropy Loss,之后我们会尝试替换为自定义的loss -criterion = nn.BCEWithLogitsLoss() -optimizer = optim.Adam(unet.parameters(), lr=1e-3, weight_decay=1e-8) - -unet = nn.DataParallel(unet).cuda() -``` - - -```python -def dice_coeff(pred, target): - eps = 0.0001 - num = pred.size(0) - m1 = pred.view(num, -1) # Flatten - m2 = target.view(num, -1) # Flatten - intersection = (m1 * m2).sum() - return (2. * intersection + eps) / (m1.sum() + m2.sum() + eps) - -def train(epoch): - unet.train() - train_loss = 0 - for data, mask in train_loader: - data, mask = data.cuda(), mask.cuda() - optimizer.zero_grad() - output = unet(data) - loss = criterion(output,mask) - loss.backward() - optimizer.step() - train_loss += loss.item()*data.size(0) - train_loss = train_loss/len(train_loader.dataset) - print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch, train_loss)) - -def val(epoch): - print("current learning rate: ", optimizer.state_dict()["param_groups"][0]["lr"]) - unet.eval() - val_loss = 0 - dice_score = 0 - with torch.no_grad(): - for data, mask in val_loader: - data, mask = data.cuda(), mask.cuda() - output = unet(data) - loss = criterion(output, mask) - val_loss += loss.item()*data.size(0) - dice_score += dice_coeff(torch.sigmoid(output).cpu(), mask.cpu())*data.size(0) - val_loss = val_loss/len(val_loader.dataset) - dice_score = dice_score/len(val_loader.dataset) - print('Epoch: {} \tValidation Loss: {:.6f}, Dice score: {:.6f}'.format(epoch, val_loss, dice_score)) -``` - - -```python -epochs = 100 -for epoch in range(1, epochs+1): - train(epoch) - val(epoch) -``` - - Epoch: 1 Training Loss: 0.179544 - current learning rate: 0.001 - Epoch: 1 Validation Loss: 0.142780, Dice score: 0.774944 - Epoch: 2 Training Loss: 0.060674 - current learning rate: 0.001 - Epoch: 2 Validation Loss: 0.054721, Dice score: 0.909441 - Epoch: 3 Training Loss: 0.033283 - current learning rate: 0.001 - Epoch: 3 Validation Loss: 0.034448, Dice score: 0.945890 - Epoch: 4 Training Loss: 0.023393 - current learning rate: 0.001 - - - - --------------------------------------------------------------------------- - - KeyboardInterrupt Traceback (most recent call last) - - in - 2 for epoch in range(1, epochs+1): - 3 train(epoch) - ----> 4 val(epoch) - - - in val(epoch) - 27 dice_score = 0 - 28 with torch.no_grad(): - ---> 29 for data, mask in val_loader: - 30 data, mask = data.cuda(), mask.cuda() - 31 output = unet(data) - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in __next__(self) - 519 if self._sampler_iter is None: - 520 self._reset() - --> 521 data = self._next_data() - 522 self._num_yielded += 1 - 523 if self._dataset_kind == _DatasetKind.Iterable and \ - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _next_data(self) - 1173 # no valid `self._rcvd_idx` is found (i.e., didn't break) - 1174 if not self._persistent_workers: - -> 1175 self._shutdown_workers() - 1176 raise StopIteration - 1177 - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _shutdown_workers(self) - 1299 # wrong, we set a timeout and if the workers fail to join, - 1300 # they are killed in the `finally` block. - -> 1301 w.join(timeout=_utils.MP_STATUS_CHECK_INTERVAL) - 1302 for q in self._index_queues: - 1303 q.cancel_join_thread() - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/process.py in join(self, timeout) - 147 assert self._parent_pid == os.getpid(), 'can only join a child process' - 148 assert self._popen is not None, 'can only join a started process' - --> 149 res = self._popen.wait(timeout) - 150 if res is not None: - 151 _children.discard(self) - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/popen_fork.py in wait(self, timeout) - 42 if timeout is not None: - 43 from multiprocessing.connection import wait - ---> 44 if not wait([self.sentinel], timeout): - 45 return None - 46 # This shouldn't block if wait() returned successfully. - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/connection.py in wait(object_list, timeout) - 929 - 930 while True: - --> 931 ready = selector.select(timeout) - 932 if ready: - 933 return [key.fileobj for (key, events) in ready] - - - /data1/ljq/anaconda3/lib/python3.8/selectors.py in select(self, timeout) - 413 ready = [] - 414 try: - --> 415 fd_event_list = self._selector.poll(timeout) - 416 except InterruptedError: - 417 return ready - - - KeyboardInterrupt: - - - -```python -!nvidia-smi -``` - - Sun Mar 27 20:57:34 2022 - +-----------------------------------------------------------------------------+ - | NVIDIA-SMI 460.91.03 Driver Version: 460.91.03 CUDA Version: 11.2 | - |-------------------------------+----------------------+----------------------+ - | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | - | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | - | | | MIG M. | - |===============================+======================+======================| - | 0 GeForce RTX 208... Off | 00000000:18:00.0 Off | N/A | - | 27% 30C P8 6W / 250W | 1126MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 1 GeForce RTX 208... Off | 00000000:3B:00.0 Off | N/A | - | 27% 28C P8 16W / 250W | 3MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 2 GeForce RTX 208... Off | 00000000:86:00.0 Off | N/A | - | 58% 53C P2 61W / 250W | 10154MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 3 GeForce RTX 208... Off | 00000000:AF:00.0 Off | N/A | - | 62% 55C P2 62W / 250W | 9854MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - - +-----------------------------------------------------------------------------+ - | Processes: | - | GPU GI CI PID Type Process name GPU Memory | - | ID ID Usage | - |=============================================================================| - | 0 N/A N/A 1140407 C .../envs/r411py37/bin/python 1123MiB | - | 2 N/A N/A 2211464 C .../ljq/anaconda3/bin/python 10151MiB | - | 3 N/A N/A 2211464 C .../ljq/anaconda3/bin/python 9851MiB | - +-----------------------------------------------------------------------------+ - - -**Point 5:自定义损失函数** -如果我们不想使用交叉熵函数,而是想针对分割模型常用的Dice系数设计专门的loss,即DiceLoss,这时就需要我们自定义PyTorch的损失函数 - - -```python -class DiceLoss(nn.Module): - def __init__(self, weight=None, size_average=True): - super(DiceLoss, self).__init__() - - def forward(self,inputs,targets,smooth=1): - inputs = torch.sigmoid(inputs) - inputs = inputs.view(-1) - targets = targets.view(-1) - intersection = (inputs * targets).sum() - dice = (2.*intersection + smooth)/(inputs.sum() + targets.sum() + smooth) - return 1 - dice - -``` - - -```python -newcriterion = DiceLoss() - -unet.eval() -image, mask = next(iter(val_loader)) -out_unet = unet(image.cuda()) -loss = newcriterion(out_unet, mask.cuda()) -print(loss) -``` - - tensor(0.1071, device='cuda:0', grad_fn=) - - -**Point 6:动态调整学习率** -随着优化的进行,固定的学习率可能无法满足优化的需求,这时需要调整学习率,降低优化的速度 -这里演示使用PyTorch自带的StepLR scheduler动态调整学习率的效果,文字版教程中给出了自定义scheduler的方式 - - -```python -scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=1, gamma=0.8) -``` - - -```python -epochs = 100 -for epoch in range(1, epochs+1): - train(epoch) - val(epoch) - scheduler.step() -``` - - Epoch: 1 Training Loss: 0.177876 - current learning rate: 0.001 - Epoch: 1 Validation Loss: 1.773043, Dice score: 0.432005 - Epoch: 2 Training Loss: 0.056940 - current learning rate: 0.0008 - Epoch: 2 Validation Loss: 0.061336, Dice score: 0.906578 - Epoch: 3 Training Loss: 0.042535 - current learning rate: 0.00064 - - - - --------------------------------------------------------------------------- - - KeyboardInterrupt Traceback (most recent call last) - - in - 2 for epoch in range(1, epochs+1): - 3 train(epoch) - ----> 4 val(epoch) - 5 scheduler.step() - - - in val(epoch) - 27 dice_score = 0 - 28 with torch.no_grad(): - ---> 29 for data, mask in val_loader: - 30 data, mask = data.cuda(), mask.cuda() - 31 output = unet(data) - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in __next__(self) - 519 if self._sampler_iter is None: - 520 self._reset() - --> 521 data = self._next_data() - 522 self._num_yielded += 1 - 523 if self._dataset_kind == _DatasetKind.Iterable and \ - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _next_data(self) - 1184 - 1185 assert not self._shutdown and self._tasks_outstanding > 0 - -> 1186 idx, data = self._get_data() - 1187 self._tasks_outstanding -= 1 - 1188 if self._dataset_kind == _DatasetKind.Iterable: - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _get_data(self) - 1150 else: - 1151 while True: - -> 1152 success, data = self._try_get_data() - 1153 if success: - 1154 return data - - - /data1/ljq/anaconda3/lib/python3.8/site-packages/torch/utils/data/dataloader.py in _try_get_data(self, timeout) - 988 # (bool: whether successfully get data, any: data if successful else None) - 989 try: - --> 990 data = self._data_queue.get(timeout=timeout) - 991 return (True, data) - 992 except Exception as e: - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/queues.py in get(self, block, timeout) - 105 if block: - 106 timeout = deadline - time.monotonic() - --> 107 if not self._poll(timeout): - 108 raise Empty - 109 elif not self._poll(): - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/connection.py in poll(self, timeout) - 255 self._check_closed() - 256 self._check_readable() - --> 257 return self._poll(timeout) - 258 - 259 def __enter__(self): - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/connection.py in _poll(self, timeout) - 422 - 423 def _poll(self, timeout): - --> 424 r = wait([self], timeout) - 425 return bool(r) - 426 - - - /data1/ljq/anaconda3/lib/python3.8/multiprocessing/connection.py in wait(object_list, timeout) - 929 - 930 while True: - --> 931 ready = selector.select(timeout) - 932 if ready: - 933 return [key.fileobj for (key, events) in ready] - - - /data1/ljq/anaconda3/lib/python3.8/selectors.py in select(self, timeout) - 413 ready = [] - 414 try: - --> 415 fd_event_list = self._selector.poll(timeout) - 416 except InterruptedError: - 417 return ready - - - KeyboardInterrupt: - - - -```python -?optim.lr_scheduler.StepLR -``` - -**Point 7:模型微调** - - -```python -unet -``` - - - - - DataParallel( - (module): UNet( - (inc): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - (down1): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down2): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down3): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (down4): Down( - (maxpool_conv): Sequential( - (0): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False) - (1): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - ) - (up1): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(1024, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(512, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up2): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(512, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(256, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up3): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(256, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(128, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (up4): Up( - (up): Upsample(scale_factor=2.0, mode=bilinear) - (conv): DoubleConv( - (double_conv): Sequential( - (0): Conv2d(128, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (2): ReLU(inplace=True) - (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) - (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) - (5): ReLU(inplace=True) - ) - ) - ) - (outc): OutConv( - (conv): Conv2d(64, 1, kernel_size=(1, 1), stride=(1, 1)) - ) - ) - ) - - - - -```python -unet.module.outc.conv.weight.requires_grad = False -unet.module.outc.conv.bias.requires_grad = False - -for layer, param in unet.named_parameters(): - print(layer, '\t', param.requires_grad) -``` - - module.inc.double_conv.0.weight True - module.inc.double_conv.1.weight True - module.inc.double_conv.1.bias True - module.inc.double_conv.3.weight True - module.inc.double_conv.4.weight True - module.inc.double_conv.4.bias True - module.down1.maxpool_conv.1.double_conv.0.weight True - module.down1.maxpool_conv.1.double_conv.1.weight True - module.down1.maxpool_conv.1.double_conv.1.bias True - module.down1.maxpool_conv.1.double_conv.3.weight True - module.down1.maxpool_conv.1.double_conv.4.weight True - module.down1.maxpool_conv.1.double_conv.4.bias True - module.down2.maxpool_conv.1.double_conv.0.weight True - module.down2.maxpool_conv.1.double_conv.1.weight True - module.down2.maxpool_conv.1.double_conv.1.bias True - module.down2.maxpool_conv.1.double_conv.3.weight True - module.down2.maxpool_conv.1.double_conv.4.weight True - module.down2.maxpool_conv.1.double_conv.4.bias True - module.down3.maxpool_conv.1.double_conv.0.weight True - module.down3.maxpool_conv.1.double_conv.1.weight True - module.down3.maxpool_conv.1.double_conv.1.bias True - module.down3.maxpool_conv.1.double_conv.3.weight True - module.down3.maxpool_conv.1.double_conv.4.weight True - module.down3.maxpool_conv.1.double_conv.4.bias True - module.down4.maxpool_conv.1.double_conv.0.weight True - module.down4.maxpool_conv.1.double_conv.1.weight True - module.down4.maxpool_conv.1.double_conv.1.bias True - module.down4.maxpool_conv.1.double_conv.3.weight True - module.down4.maxpool_conv.1.double_conv.4.weight True - module.down4.maxpool_conv.1.double_conv.4.bias True - module.up1.conv.double_conv.0.weight True - module.up1.conv.double_conv.1.weight True - module.up1.conv.double_conv.1.bias True - module.up1.conv.double_conv.3.weight True - module.up1.conv.double_conv.4.weight True - module.up1.conv.double_conv.4.bias True - module.up2.conv.double_conv.0.weight True - module.up2.conv.double_conv.1.weight True - module.up2.conv.double_conv.1.bias True - module.up2.conv.double_conv.3.weight True - module.up2.conv.double_conv.4.weight True - module.up2.conv.double_conv.4.bias True - module.up3.conv.double_conv.0.weight True - module.up3.conv.double_conv.1.weight True - module.up3.conv.double_conv.1.bias True - module.up3.conv.double_conv.3.weight True - module.up3.conv.double_conv.4.weight True - module.up3.conv.double_conv.4.bias True - module.up4.conv.double_conv.0.weight True - module.up4.conv.double_conv.1.weight True - module.up4.conv.double_conv.1.bias True - module.up4.conv.double_conv.3.weight True - module.up4.conv.double_conv.4.weight True - module.up4.conv.double_conv.4.bias True - module.outc.conv.weight False - module.outc.conv.bias False - - - -```python -param -``` - - - - - Parameter containing: - tensor([-0.1994], device='cuda:0') - - -**Point 8:半精度训练** - - -```python -## 演示时需要restart kernel,并运行Unet模块 - -from torch.cuda.amp import autocast -os.environ['CUDA_VISIBLE_DEVICES'] = '2,3' -``` - - -```python -class CarvanaDataset(Dataset): - def __init__(self, base_dir, idx_list, mode="train", transform=None): - self.base_dir = base_dir - self.idx_list = idx_list - self.images = os.listdir(base_dir+"train") - self.masks = os.listdir(base_dir+"train_masks") - self.mode = mode - self.transform = transform - - def __len__(self): - return len(self.idx_list) - - def __getitem__(self, index): - image_file = self.images[self.idx_list[index]] - mask_file = image_file[:-4]+"_mask.gif" - image = PIL.Image.open(os.path.join(base_dir, "train", image_file)) - if self.mode=="train": - mask = PIL.Image.open(os.path.join(base_dir, "train_masks", mask_file)) - if self.transform is not None: - image = self.transform(image) - mask = self.transform(mask) - mask[mask!=0] = 1.0 - return image, mask.float() - else: - if self.transform is not None: - image = self.transform(image) - return image - -base_dir = "./" -transform = transforms.Compose([transforms.Resize((256,256)), transforms.ToTensor()]) -train_idxs, val_idxs = train_test_split(range(len(os.listdir(base_dir+"train_masks"))), test_size=0.3) -train_data = CarvanaDataset(base_dir, train_idxs, transform=transform) -val_data = CarvanaDataset(base_dir, val_idxs, transform=transform) -train_loader = DataLoader(train_data, batch_size=32, num_workers=4, shuffle=True) -val_loader = DataLoader(train_data, batch_size=32, num_workers=4, shuffle=False) - -``` - - -```python -class UNet_half(nn.Module): - def __init__(self, n_channels, n_classes, bilinear=True): - super(UNet_half, self).__init__() - self.n_channels = n_channels - self.n_classes = n_classes - self.bilinear = bilinear - - self.inc = DoubleConv(n_channels, 64) - self.down1 = Down(64, 128) - self.down2 = Down(128, 256) - self.down3 = Down(256, 512) - factor = 2 if bilinear else 1 - self.down4 = Down(512, 1024 // factor) - self.up1 = Up(1024, 512 // factor, bilinear) - self.up2 = Up(512, 256 // factor, bilinear) - self.up3 = Up(256, 128 // factor, bilinear) - self.up4 = Up(128, 64, bilinear) - self.outc = OutConv(64, n_classes) - - @autocast() - def forward(self, x): - x1 = self.inc(x) - x2 = self.down1(x1) - x3 = self.down2(x2) - x4 = self.down3(x3) - x5 = self.down4(x4) - x = self.up1(x5, x4) - x = self.up2(x, x3) - x = self.up3(x, x2) - x = self.up4(x, x1) - logits = self.outc(x) - return logits - -unet_half = UNet_half(3,1) -unet_half = nn.DataParallel(unet_half).cuda() -``` - - -```python -criterion = nn.BCEWithLogitsLoss() -optimizer = optim.Adam(unet_half.parameters(), lr=1e-3, weight_decay=1e-8) -``` - - -```python -def dice_coeff(pred, target): - eps = 0.0001 - num = pred.size(0) - m1 = pred.view(num, -1) # Flatten - m2 = target.view(num, -1) # Flatten - intersection = (m1 * m2).sum() - return (2. * intersection + eps) / (m1.sum() + m2.sum() + eps) - -def train_half(epoch): - unet_half.train() - train_loss = 0 - for data, mask in train_loader: - data, mask = data.cuda(), mask.cuda() - with autocast(): - optimizer.zero_grad() - output = unet_half(data) - loss = criterion(output,mask) - loss.backward() - optimizer.step() - train_loss += loss.item()*data.size(0) - train_loss = train_loss/len(train_loader.dataset) - print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch, train_loss)) - -def val_half(epoch): - print("current learning rate: ", optimizer.state_dict()["param_groups"][0]["lr"]) - unet_half.eval() - val_loss = 0 - dice_score = 0 - with torch.no_grad(): - for data, mask in val_loader: - data, mask = data.cuda(), mask.cuda() - with autocast(): - output = unet_half(data) - loss = criterion(output, mask) - val_loss += loss.item()*data.size(0) - dice_score += dice_coeff(torch.sigmoid(output).cpu(), mask.cpu())*data.size(0) - val_loss = val_loss/len(val_loader.dataset) - dice_score = dice_score/len(val_loader.dataset) - print('Epoch: {} \tValidation Loss: {:.6f}, Dice score: {:.6f}'.format(epoch, val_loss, dice_score)) -``` - - -```python -epochs = 100 -scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=1, gamma=0.8) -for epoch in range(1, epochs+1): - train_half(epoch) - val_half(epoch) - scheduler.step() -``` - - Epoch: 1 Training Loss: 0.431690 - current learning rate: 0.001 - Epoch: 1 Validation Loss: 0.399930, Dice score: 0.000200 - - - - --------------------------------------------------------------------------- - - KeyboardInterrupt Traceback (most recent call last) - - in - 2 scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=1, gamma=0.8) - 3 for epoch in range(1, epochs+1): - ----> 4 train_half(epoch) - 5 val_half(epoch) - 6 scheduler.step() - - - in train_half(epoch) - 18 loss.backward() - 19 optimizer.step() - ---> 20 train_loss += loss.item()*data.size(0) - 21 train_loss = train_loss/len(train_loader.dataset) - 22 print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch, train_loss)) - - - KeyboardInterrupt: - - - -```bash -!nvidia-smi -``` - - Sun Mar 27 21:17:28 2022 - +-----------------------------------------------------------------------------+ - | NVIDIA-SMI 460.91.03 Driver Version: 460.91.03 CUDA Version: 11.2 | - |-------------------------------+----------------------+----------------------+ - | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | - | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | - | | | MIG M. | - |===============================+======================+======================| - | 0 GeForce RTX 208... Off | 00000000:18:00.0 Off | N/A | - | 49% 49C P2 52W / 250W | 8989MiB / 11019MiB | 1% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 1 GeForce RTX 208... Off | 00000000:3B:00.0 Off | N/A | - | 59% 53C P2 64W / 250W | 7866MiB / 11019MiB | 1% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 2 GeForce RTX 208... Off | 00000000:86:00.0 Off | N/A | - | 52% 54C P2 61W / 250W | 5862MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - | 3 GeForce RTX 208... Off | 00000000:AF:00.0 Off | N/A | - | 52% 54C P2 61W / 250W | 5814MiB / 11019MiB | 0% Default | - | | | N/A | - +-------------------------------+----------------------+----------------------+ - - +-----------------------------------------------------------------------------+ - | Processes: | - | GPU GI CI PID Type Process name GPU Memory | - | ID ID Usage | - |=============================================================================| - | 0 N/A N/A 1140407 C .../envs/r411py37/bin/python 1123MiB | - | 0 N/A N/A 2231210 C python 7863MiB | - | 1 N/A N/A 2233380 C python 7863MiB | - | 2 N/A N/A 2233881 C .../ljq/anaconda3/bin/python 5859MiB | - | 3 N/A N/A 2233881 C .../ljq/anaconda3/bin/python 5811MiB | - +-----------------------------------------------------------------------------+ - diff --git "a/docs/_sources/\347\254\254\345\205\255\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\345\205\255\347\253\240/index.md.txt" deleted file mode 100644 index d6f294bbd..000000000 --- "a/docs/_sources/\347\254\254\345\205\255\347\253\240/index.md.txt" +++ /dev/null @@ -1,11 +0,0 @@ -# 第六章:PyTorch进阶训练技巧 -```{toctree} -:maxdepth: 2 -6.1 自定义损失函数 -6.2 动态调整学习率 -6.3 模型微调-torchvision -6.3 模型微调-timm -6.4 半精度训练 -6.5 数据增强-imgaug -6.6 使用argparse进行调参 -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/10.1 \345\233\276\345\203\217\345\210\206\347\261\273.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/10.1 \345\233\276\345\203\217\345\210\206\347\261\273.md.txt" deleted file mode 100644 index 7de0c7c49..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/10.1 \345\233\276\345\203\217\345\210\206\347\261\273.md.txt" +++ /dev/null @@ -1 +0,0 @@ -# 10.1 图像分类简介(补充中) \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/10.2 \347\233\256\346\240\207\346\243\200\346\265\213.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/10.2 \347\233\256\346\240\207\346\243\200\346\265\213.md.txt" deleted file mode 100644 index f6b04ab4f..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/10.2 \347\233\256\346\240\207\346\243\200\346\265\213.md.txt" +++ /dev/null @@ -1,71 +0,0 @@ -# 目标检测简介 -## 目标检测概述 -目标检测是计算机视觉的一个重要任务,根据整张图像内容进行描述,并结合目标物体的特征信息,确定该物体的类别与位置。不同于图像分类任务中我们只需要输出图像中主要物体对象的类标,在目标检测任务中,一张图像里往往含有多个物体对象,我们不仅需要输出这些物体的类标,同时还需要输出这些物体的位置,在表示位置时,我们一般采用目标检测边缘框`bounding box`进行表示,`bounding box`是一组坐标值,常见形式为`(x1,y1,x2,y2)`,其中`x1`代表物体左上横坐标,`y1`代表左上纵坐标,`x2`代表物体右下横坐标,`y2`代表物体右下纵坐标。 -## 目标检测应用 -目标检测技术不同于图像分类单一输出物体的种类,它将物体的位置和种类一起输出,这使得目标检测在一些领域有着重要的作用,目标检测常用于人脸检测、智慧交通、机器人、无人驾驶、遥感目标检测、安防领域检测异常、行人计数、安全系统等各大领域。 -## 目标检测数据集 -目标检测的数据集通常来说比图片分类的数据集小很多,因为每一张图片的标注的成本很高,相较于图片分类的常见标注方法是给定一个CSV文件(图片与标号一一对应)或者是给定一个文件夹(每个类对应一个子文件夹,对应标号的图片放在子文件夹下),但是对于目标检测来说因为一张图片中可能存在多个类,所以我们就不能放在子文件夹中,所以通常来说目标检测的数据集的标号需要额外存储,常见的存储格式有PASCAL VOC的格式和COCO的标注格式。假设使用文本文件存储的话,每一行表示一个物体,每一行分别由图片文件名(因为一张图片中可能有多个物体,所以同一个文件名可能会出现多次)、物体类别(标号)、边缘框(图片中物体的位置)组成,每一行一共有6(1+1+4)个值 -目标检测常用的数据集有PASCAL VOC2007, MS COCO -### COCO数据集 -[[Dataset url](https://cocodataset.org/#home)] [[Dataset paper](https://arxiv.org/pdf/1405.0312v3.pdf)] [[Dataset Benchmarks](https://paperswithcode.com/dataset/coco)] - -COCO是目标检测中比较常见的数据集,类似于Imagenet在图片分类中的地位,coco数据集是微软开源的一个目标检测中常用的大规模数据集,相对于VOC而言,COCO数据集有着小目标多、单幅图片目标多、物体大多非中心分布、更符合日常环境的特点,因而COCO数据集的目标检测难度更大。对于目标检测任务,COCO包含80个类别,每年大赛的训练和和验证集包含120,000张图片,超过40,000张测试图片(每个图片包含多个物体)。下面是这个数据集中的80个类别: -|所属大类|lable| -|---|---| -|Person#1|person| -|Vehicle#8|bicycle,car,motorcycle,airplane,bus,train,truck,boat| -|Outdoor#5|traffic light, firhydrant, stop sign, parking meter, bench| -|Animal#10|bird,cat, dog,horse, sheep, cow, elephant, bear, zebra, giraffe| -|Accessory#5|backpack, umbrella,handbag, tie, suitcase| -|Sport#10|frisbee, skis,snowboard, sports ball, kite, baseball bat , baseball glove, skateboard, surfboard, tennisracket| -|Kitchen#7|bottle, wine glass,cup, fork, knife, spoon, bowl| -|Food#10|banana, apple,sandwich, orange, broccoli, carrot, hot dog, pizza, donut, cake| -|Furniture#6| chair, couch, potted plant,bed, dining table, toilet| -|Electronic#6|tv, laptop, mouse,remote, keyboard, cell phone| -|Appliance#5|microwave, oven,toaster, sink, refrigerator| -|Indoor#7|book, clock, vase,scissors, teddy bear, hair drier, toothbrus| - -与PASCAL VOC数据标注格式不同,COCO的数据标注格式是以Json形式保存,具体形式可以参考COCO官网的[format data](https://cocodataset.org/#format-data) - -### PASCAL VOC -[[Dataset url](http://host.robots.ox.ac.uk/pascal/VOC/index.html)] [[Dataset paper](http://host.robots.ox.ac.uk/pascal/VOC/index.html)] [[Dataset Benchmarks](https://paperswithcode.com/dataset/pascal-voc-2007)] - -Pascal VOC数据集是目标检测的常用的大规模数据集之一,从05年到12年都会举办比赛(比赛任务task: 分类Classification ,目标检测Object Detection,语义分割Class Segmentation,实例分割Object Segmentation,Action Classification(专注于人体动作的一种分类),Person Layout(专注于人体各部位的一种目标检测))。当前常见的数据集有VOC2007和VOC2012两个数据集。包含约10,000张带有边界框的图片用于训练和验证。含有20个类别。具体包括 -|所属大类|label| -|---|---| -|Person| person| -|Animal| bird, cat, cow, dog, horse,sheep| -|Vehicle| aeroplane, bicycle, boat,bus, car, motorbike, train| -|Indoor|bottle, chair, dining table,potted plant, sofa, tv/monitor| - -相较于COCO数据集的80类别,PASCAL VOC数据集仅有20类,因此也常被看作是目标检测领域的基准数据集。数据集下载完后会有五个文件夹:Annotations、ImageSets、JPEGImages、SegmentationClass、SegmentationObject -annotations:数据集标签的存储路径,通过XML文件格式,为图像数据存储各类任务的标签。其中部分标签为目标检测的标签。 -JPEGImages:数据集图像的存储路径。 -具体的标注格式,请参考[Annotation Guidelines](http://host.robots.ox.ac.uk/pascal/VOC/voc2007/guidelines.html) -### DOTA -[[Dataset url](https://captain-whu.github.io/DOTA/dataset.html)] [[Dataset paper](https://captain-whu.github.io/DOTA/index.html)] [[Dataset Benchmarks](https://paperswithcode.com/dataset/dota)] - -DOTA数据集是最为重要的遥感航空拍摄的目标检测数据集之一,数据来自Google Earth,GF-2和JL-1卫星,CycloMedia B.V。DOTA包含灰度图和RGB图像,并且每张图片以PNG形式保存,其中RGB来自于Google Earth和CycloMedia,灰度图来自GF-2和JL-1卫星。DOTA现有v1.0,v1.5,v2.0三个版本,分别支持15,16,18类的检测。 - -|DOTA 版本|包含类别| -|----|----| -|DOTA v1.0|plane, ship, storage tank, baseball diamond, tennis court, basketball court, ground track field, harbor, bridge, large vehicle, small vehicle, helicopter, roundabout, soccer ball field and swimming pool| -|DOTA v1.5|plane, ship, storage tank, baseball diamond, tennis court, basketball court, ground track field, harbor, bridge, large vehicle, small vehicle, helicopter, roundabout, soccer ball field, swimming pool and container crane.| -|DOTA v2.0|plane, ship, storage tank, baseball diamond, tennis court, basketball court, ground track field, harbor, bridge, large vehicle, small vehicle, helicopter, roundabout, soccer ball field, swimming pool, container crane, airport and helipad.| - -关于DOTA的标注形式,请参考[DOTA Annotation format](https://captain-whu.github.io/DOTA/dataset.html) -### KITTI -[[Dataset url](http://www.cvlibs.net/datasets/kitti/)] [[Dataset paper](https://arxiv.org/abs/1704.06857)] [[Dataset Benchmarks](https://paperswithcode.com/dataset/kitti)] -## 目标检测常用算法 -随着算力的发展和深度学习的发展,目标检测经历了从基于手工设计特征的方法到基于深度学习提取特征的阶段。在早期,目标检测技术往往采用手工设计特征(Haar特征、梯度直方图HOG)加分类器(SVM、AdaBoost)的方法实现。随着卷积神经网络的发展,目标检测出现了一系列的基于卷积神经网络的目标检测技术,包括R-CNN系列,SSD系列,YOLO系列等。随着Transformer在自然语言处理和计算机视觉的发展,也出现了基于Transformer的目标检测技术,代表工作有DETR系列。在本部分,我们主要介绍基于深度学习的目标检测技术并进行部分代码的解读。 - -我们可以将基于深度学习的目标检测技术按照有无使用锚点框分为基于锚点框的目标检测方法(Anchor-based),无锚点框的目标检测方法(Anchor-free)和端到端的目标检测方法(Anchor-free)。其中端到端的目标检测技术也是属于特殊的无锚点框的目标检测方法。 - -我们可以将基于锚点框的目标检测方法分为单阶段目标检测方法(One-Stage)和两阶段目标检测方法(Two-Stage),其中单阶段目标检测方法代表作有YOLO (You Only Look Once)和SSD (Single Shot Detector),两阶段目标检测方法的代表作有R-CNN(R-CNN,Fast RCNN,Faster RCNN,Mask RCNN,Cascade RCNN,SPPNet)系列。一般而言,两阶段目标检测具有较高的检测精度,而单阶段目标检测方法具有更高的精度。 - -同样,我们可以将无锚点框的目标检测方法分为基于目标点的目标检测方法和基于内部点的目标检测方法。 -端到端的目标检测方法 - - - - diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/10.3 \345\233\276\345\203\217\345\210\206\345\211\262.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/10.3 \345\233\276\345\203\217\345\210\206\345\211\262.md.txt" deleted file mode 100644 index b36c0859e..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/10.3 \345\233\276\345\203\217\345\210\206\345\211\262.md.txt" +++ /dev/null @@ -1 +0,0 @@ -# 10.3 图像分割简介(补充中) \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/LSTM\350\247\243\350\257\273\345\217\212\345\256\236\346\210\230.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/LSTM\350\247\243\350\257\273\345\217\212\345\256\236\346\210\230.md.txt" deleted file mode 100644 index eb328800a..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/LSTM\350\247\243\350\257\273\345\217\212\345\256\236\346\210\230.md.txt" +++ /dev/null @@ -1,273 +0,0 @@ -# 文章结构 - -在[RNN详解及其实战](./RNN%E8%AF%A6%E8%A7%A3%E5%8F%8A%E5%85%B6%E5%AE%9E%E7%8E%B0.md)中,我们简单讨论了为什么需要RNN这类模型、RNN的具体思路、RNN的简单实现等问题。同时,在文章结尾部分我们提到了RNN存在的梯度消失问题,及之后的一个解决方案:**LSTM**。因此,本篇文章主要结构如下: - -1. LSTM 理解及简单实现 -2. LSTM 实战 -3. 经典 RNN 与 LSTM 对比 -4. 关于梯度消失 - -# LSTM 理解 - -其实,我们将 LSTM 与 RNN 说成两个并不可取, LSTM 依然归属于 RNN 之下,相比于使用线性回归方式来处理序列问题, LSTM 其实是设计了一个模块来取代线性回归算法。 - -LSTM(Long Short-Term Memory),翻译过来是长短期记忆法,其核心思想可以说非常的简单:既然 RNN 只能保存短期的记忆,那我增加一个长期记忆,不就可以解决这个问题了名?因此,LSTM提出了长期记忆和短期记忆,通过调整长期记忆和短期记忆之间的比例,来维持长期记忆的可靠,降低 RNN 的梯度消失问题。可以看到下方结构图中,模型输入由两个升级到三个,分别是当前节点状态 $\mathbf{X}_{t}$,长期记忆:$\mathbf{C}_{t-1}$,短期记忆 $\mathbf{H}_{t-1}$。输出状态依然是两个:节点当前状态 $\mathbf{C}_{t}$,和节点当前隐藏状态 $\mathbf{H}_{t}$。 - -![LSTM结构图](./figures/LSTM-arch.jpg) - -那么问题来了, LSTM 是如何实现对长短记忆的控制呢? -这就不得不提众人所知的三个门: - - 遗忘门:控制保留多少上一时刻的单元节点到当前节点 - - 记忆门:控制将当前时刻的多少信息记忆到节点中 - - 输出门:控制输出多少信息给当前输出 - - -我们在分析三个门之前,我们先了解 **门** 这一概念。 -## 门 - -从简化图中可以看到, **门**的感觉类似于电路中的一个开关,当开关按下,信息通过,而开关抬起,信息不再通过。实际也如此类似,**门**是一个全连接层,输入为一个向量,输出为一个位于 [0,1] 之间的值。 -我们来设计一个非常简单的遗忘门:每次学习状态之后,都遗忘一定的已学习内容,注意,这里的遗忘门与 LSTM 的遗忘门无关,单纯理解 **门** 这一概念。 - -```python -# 一个线性层 用来计算遗忘多少 -gate_linear = nn.Linear(hidden_size, 1) -# 一个线性层 用来学习 -study_linear = nn.Linear(hidden_size, hidden_size) -# 此刻 h_t 是上一时刻状态 -# 输出为 0 - 1 的值 -gate = gate_linear(h_t) -# h_t 经过 study_linear 进行学习 -_h_t = study_linear(h_t) -# 在输出结果之前,经过 gate 导致内容受损,遗忘了一定的学习内容 -h_t = gate * (_h_t) -``` -可以看到,如果 $gate$ 值为 0,则历史信息均会被遗忘,而如果值为1,则历史信息则会被完全保留,而 `gate_linear` 网络中的超参数会不断的学习,因此一个可以学习的开关门就出现了。 - -但是,$gate$ 作为一个浮点型的数据,对于 临时结果矩阵变量 $\_h\_t$ 而言,其遗忘控制是全局的,也就是,当 $gate$ 为 0 时, 其最终结果 $h\_t$ 为全 0 矩阵。因此我们应该注意: LSTM 中并不采用这样的大闸门,而是采用对每个变量进行分别控制的小水龙头(神经网络激活函数 `nn.Sigmode` ) - -而在 LSTM 中,门主要使用 $Sigmod$ 神经网络(**再次注意,并非是激活函数,而是 Sigmod 神经网络**)来完成。 - -下方是一个示例代码: -```python -hidden_size = 5 -sigmoid = nn.Sigmoid() -# 隐藏状态 为了方便计算,假定全 1 -hidden_emb = torch.ones(hidden_size, hidden_size) -# 中间某一层神经网络 -model = nn.Linear(hidden_size,hidden_size) -# 获取该层输出,此时尚未被门限制 -mid_out = model(hidden_emb) -# 获取一个门 -- 注意:并非一定由该变量所控制 -# 比如:也可以由上一时刻的隐藏状态控制 -# 代码为: gate = sigmoid(hidden_emb) -gate = sigmoid(mid_out) -# 得到最终输出 -final_out = gate * mid_out -``` - -在有了对门的基础知识后,接下来对遗忘门、记忆门、输出门进行分别分析。 - -## 遗忘门 - -遗忘门涉及部分如下图所示: - ![LSTM-遗忘门](./figures/LSTM-gate_f.jpg) - -其中,下方蓝色表示三个门共用的输入部分,均为 \[$\mathbf{h}_{t-1}$,$\mathbf{X}_{t}$],需要注意,这里由于三个门之间并不共享权重参数,因此公示虽然接近,但是一共计算了三次,遗忘门被标记为 $f_t$, 列出遗忘门公式为: -$$ -f_t = \sigma(\mathbf{W_f} * [\mathbf{h}_{t-1},\mathbf{X}_{t}] + \mathbf{b_f}) -$$ -输出结果为取值范围为 [ 0, 1 ] 的矩阵,主要功能是控制与之相乘的矩阵的**遗忘程度**。 -将 $f_t$ 与输入的上一长期状态 $C_{t-1}$ 相乘: -$$ -C_t' = f_t * C_{t-1} -$$ - -一部分的 $C_{t-1}$ 就这样被遗忘了。 - -## 记忆门 - -记忆门涉及部分如下所示: -![LSTM记忆门](./figures/LSTM-gate_m.jpg) - -从图中可以看到,记忆门中相乘的两个部分均由 $\mathbf{h}_{t-1}$ 与 $\mathbf{X}_{t}$ 得到, -其中,左侧控制记忆多少的部分,与遗忘门公式基本一致: -$$ -i_t = \sigma(\mathbf{W_i} * [\mathbf{h}_{t-1},\mathbf{X}_{t}] + \mathbf{b_i}) -$$ -与遗忘门相通,输出结果为取值范围为 [ 0, 1 ] 的矩阵,主要功能是控制与之相乘的矩阵的**记忆程度**。 -而右侧,则更换了激活函数,由 $sigmoid$ 变成了 $tanh$: -$$ -\tilde{C_t} = \tanh(\mathbf{W_c} * [\mathbf{h}_{t-1},\mathbf{X}_{t}] + \mathbf{b_c}) -$$ -该公式负责的部分可以看做负责**短期隐藏状态**的更新,取值范围为 [ -1, 1 ]。 - -最终记忆门更新公式如下: -$$ -\tilde{C_t'}= i_t * \tilde{C_t} -$$ - -我们可以说 $\tilde{C_t'}$ 是保留了一定内容的短期状态 - -## 状态更新 - -![LSTM-状态更新](./figures/LSTM-update.jpg) - -在通过遗忘门获取到了被遗忘一定内容的长期状态 $C_t'$ 和 保留了一定内容的短期状态 $\tilde{C_t'}$ 之后,可以通过加法直接结合 - -$$ -C_t = C_t' + \tilde{C_t'} -$$ - -## 输出门 - -![LSTM输出门](./figures/LSTM-gate_o.jpg) - -输出门是三个门中最后一个门,当数据到达这里的时候,我们主要控制将长期状态中的内容 $C_t$ 保存一定内容到 $h_t$ 中,这里不再赘述 -$$ -o_t = \sigma(\mathbf{W_o} * [\mathbf{h}_{t-1},\mathbf{X}_{t}] + \mathbf{b_o}) -$$ - -$$ -h_t = o_t * \tanh(C_t) -$$ - - - -## 模型总结 - -可以看到,所有公式的核心部分都是如此的相似: -$$ -\mathbf{W_c} * [\mathbf{h}_{t-1},\mathbf{X}_{t}] + \mathbf{b_c} -$$ -而这部分其实又只是简单的线性函数,所以 LSTM 比 RNN 高级的地方其实并不在于某一条公式,而是它调整了数据之间的流动,按照一定的比例进行融合,弱化了长距离下的梯度消失问题。 - -最后总的来看,LSTM 其实就是一个升级版本的的 RNN,他额外初始化了一个状态 $C$, 用来保存长期的记忆,控制远距离上的参数权重。而输出也基本类似于此。 - - -# LSTM 实战 - -## 实验说明 - -完整代码实现可以点击[这里](../../notebook/第十章%20常见网络代码的解读/LSTM实战.ipynb)下载。在完整代码中,我们共计使用了三个模型并对比了他们的效果,三个模型分别是:由我完全使用 `nn.Linear` 实现的 LSTM 模型、 使用 `nn.LSTM` 为基础的 LSTM 模型和使用 `nn.RNN` 为基础实现的 RNN 模型。 - -实验数据集采用 [IMDB 数据集](http://ai.stanford.edu/~amaas/data/sentiment/)。主要由电影评论构成,长度不均,**但是长度在 1000 左右的数据属于常见数据**。数据集样本均衡,数共计 50000 个样本,训练和测试各有 25000 个样本,同时训练和测试的正负比例均为 1:1。 - -根据我们对 RNN 的了解,这样的长度是很难学习到有效的知识的,所以很适合比较 RNN 与 LSTM 之间的区别。 - -为了方便代码复现,在实现中借助了 `torchtext` 来完成数据下载及加载。 - -为了证明模型真的有学习到一定的内容,所以对比实验中部分参数可能存在部分区别,可以在本地调整到同一参数进行细致的对比实验。 - - -## 模型实现 - -我们在这里分析一下由我实现的 LSTM 模型,并以此了解 LSTM 模型。(ps:个人能力有限,没能实现 `num_layers` 和 `Bi-LSTM` 两个特点,此外可能实现存在其他问题,欢迎给予反馈) -```python -# 定义基础模型 -class LSTM(nn.Module): - def __init__(self, input_size, hidden_size, num_classes): - """ - args: - input_size: 输入大小 - hidden_size: 隐藏层大小 - num_classes: 最后输出的类别,在这个示例中,输出应该是 0 或者 1 - """ - super(LSTM, self).__init__() - self.input_size = input_size - self.hidden_size = hidden_size - self.num_layers = num_layers - self.fc_i = nn.Linear(input_size + hidden_size, hidden_size) - self.fc_f = nn.Linear(input_size + hidden_size, hidden_size) - self.fc_g = nn.Linear(input_size + hidden_size, hidden_size) - self.fc_o = nn.Linear(input_size + hidden_size, hidden_size) - self.sigmoid = nn.Sigmoid() - self.tanh = nn.Tanh() - self.fc_out = nn.Linear(hidden_size, num_classes) - def forward(self, x): - # 初始化隐藏状态 -- 短期记忆 - h_t = torch.zeros(x.size(0), x.size(1), self.hidden_size).to(x.device) - # 初始化隐藏状态 -- 长期记忆 - c_t = torch.zeros(x.size(0), x.size(1), self.hidden_size).to(x.device) - # 输入与短期记忆相拼接 - combined = torch.cat((x, h_t), dim=2) - # 记忆门 -- 输出矩阵内容为 0-1 之间的数字 - i_t = self.sigmoid(self.fc_i(combined)) - # 遗忘门 -- 输出矩阵内容为 0-1 之间的数字 - f_t = self.sigmoid(self.fc_f(combined)) - # - g_t = self.tanh(self.fc_g(combined)) - # 输出门 -- 输出矩阵内容为 0-1 之间的数字 - o_t = self.sigmoid(self.fc_o(combined)) - # 长期状态 = 遗忘门 * 上一时刻的长期状态 + 记忆门* 当前记忆状态 - c_t = f_t * c_t + i_t * g_t - # 隐藏状态 = 输出门 * 长期状态 - h_t = o_t * self.tanh(c_t) - # 降维操作 - h_t = F.avg_pool2d(h_t, (h_t.shape[1],1)).squeeze() - # - out = self.fc_out(h_t) - return out -``` - - -## 超参数及参数说明 - -### MyLSTM 与 nn.LSTM - -名称 | 值 --- | -- -learning_rate | 0.001 -batch_size | 32 -epoch | 6(3) -input_size | 64 -hidden_size | 128 -num_classes | 2 - -此时: -MyLSTM 参数量: 99074 -nn.LSTM 参数量: 99328 - -由于我实现的 MyLSTM 与 nn.LSTM 有 254 的参数差,我本人并没能分析出来差别。 `nn.LSTM` 在实验时大概率比我的 MyLSTM 迭代更快,所以容易较早的过拟合,所以将其训练 epoch 砍半,也就是说 MyLSTM 使用 6 epoch 进行训练,而 `nn.LSTM` 使用 3 epoch 进行训练。两者可以达到基本相近的效果 - -另外在代码实现中 `nn.LSTM` 后面加了一个 `nn.Linear` 来实现二分类,参数量为 258, 所以 MyLSTM 和 LSTM 相差参数总量为 512。 - -### nn.RNN - -名称 | 值 --- | -- -learning_rate | **0.0001** -batch_size | 32 -epoch | **12-18** -input_size | 64 -hidden_size | 128 -num_classes | 2 - -此时: -nn.RNN 参数量: 25090 - -由于实验样本长度在 1000 上下, RNN 显示出来了极大的不稳定性,其中, 相较于 LSTM 更容易梯度爆炸、训练 epoch 更多、学习率需要调低等等问题,尽管如此依然不能保证稳定的良好结果。 - -举例来说,某学生学习阅读理解,要求根据文章内容回答文章的情感倾向,但是学生只喜欢看最后一句话,每次都根据最后一句话来回答问题,那么他基本上是等于瞎猜的,只能学到一点浅薄的知识。 - -## 实验结果 - -MyLSTM | nn.LSTM | nn.RNN --- | -- | -- -0.86 | 0.80 | 0.67 - - -# 关于梯度问题 - -- RNN问题中,**总的梯度是不会消失的**。即便梯度越传越弱,那也是远处的梯度逐渐消失,而近距离的梯度不会消失,因此,梯度总和不会消失。RNN 梯度消失的真正含义是:梯度被近距离梯度所主导,导致模型难以学到远距离的依赖关系。 - -- LSTM 上有多条信息流路径,其中,**元素相加的路径的梯度流是最稳定的**,而其他路径上与基本的 RNN 相类似,依然存在反复相乘问题。 - -- LSTM 刚刚提出时不存在遗忘门。这时候历史数据可以在这条路径上无损的传递,可以将其视为一条 **高速公路**,类似于 ResNet 中的残差连接。 - -- 但是其他路径上, LSTM 与 RNN 并无太多区别,依然会爆炸或者消失。由于**总的远距离梯度 = 各个路径的远距离梯度之和**,因此只要有一条路的远距离梯度没有消失,总的远距离梯度就不会消失。可以说,LSTM 通过这一条路拯救了总的远距离梯度。 - -- 同样,**总的远距离梯度 = 各个路径的远距离梯度之和**,虽然高速路上的梯度流比较稳定,但是其他路上依然存在梯度消失和梯度爆炸问题。因此,总的远距离梯度 = 正常梯度 + 爆炸梯度 = 爆炸梯度,因此 LSTM 依然存在梯度爆炸问题。 但是由于 LSTM 的道路相比经典 RNN 来说非常崎岖, 存在多次激活函数,因此 LSTM 发生梯度爆炸的概率要小得多。实践中通常通过梯度剪裁来优化问题。 - - - - diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/RNN\350\257\246\350\247\243\345\217\212\345\205\266\345\256\236\347\216\260.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/RNN\350\257\246\350\247\243\345\217\212\345\205\266\345\256\236\347\216\260.md.txt" deleted file mode 100644 index 4bee6f1fe..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/RNN\350\257\246\350\247\243\345\217\212\345\205\266\345\256\236\347\216\260.md.txt" +++ /dev/null @@ -1,227 +0,0 @@ -# 文章结构 -提及 RNN,绝大部分人都知道他是一个用于序列任务的神经网络,会提及他保存了时序信息,但是,为什么需要考虑时序的信息?为什么说 RNN 保存了时序的信息?RNN又存在哪些问题? 本篇内容将按照以下顺序逐步带你摸清 RNN 的细节之处,并使用 PyTorch 来完成一个自己的文本分类模型。 - - 1. 为什么需要 RNN? - 2. RNN 理解及其简单实现。 - 3. 用 RNN 完成文本分类任务。 - 4. RNN 存在的问题。 - -# 为什么需要 RNN? -在现实生活的世界中,有很多的内容是有着前后关系的,比如你所阅读的这段文字,他并不是毫无理由的随机组合,而是我构思之后按顺序写下的一个个文字。除了文字之外,例如人的发音、物品的价格的曲线、温度变化等等,都是有着前后顺序存在的。 - -很明显,当知道了前面的信息,就可以对后面的信息进行合理的预测。比如,前十天温度都只有20度,明天的温度无论如何不可能零下;这个商品一年来价格都在30左右浮动,明天我去买他的时候,准备40就足够了;老师很好的表扬了你,紧跟着说了一个但是,你就知道他的内容要开始转折了。这就是隐藏在日常生活中的序列信息,因为已经知道了前面发生的内容,所以才可以推理后面的内容。 - -那么,可以用传统的多层感知机来处理序列问题吗?按照基本的多层感知机模型方案来实现,应该是这样的:将序列输入固定成一个 $d$ 维向量,就可以送入多层感知机进行学习,形如公式: -$$ - \mathbf{H} = \phi(\mathbf{X} \mathbf{W}_{xh} + \mathbf{b}_{h}) -$$ - 公式中, $\phi$ 表示激活函数,$\mathbf{X} \in \mathbb{R}^{n \times d}$ 表示一组小批量样本,其中 $n$ 是样本大小, $d$ 表示输入的特征维度。:$\mathbf{W}_{xh} \in \mathbb{R}^{d \times h}$表示模型权重参数,$d \in \mathbb{R}^{1 \times h}$表示模型偏置。最后可以得到隐藏层输入:$\mathbf{H} \in \mathbb{R}^{n \times h}$,其中 $h$ 表示隐藏层大小。 - -紧接着,模型可以使用下面的公式进行计算,得到输出: -$$ -\mathbf{O} = \mathbf{H}\mathbf{W}_{hq} + \mathbf{b}_q -$$ -其中,$\mathbf{O} \in \mathbb{R}^{n \times q}$ 为模型输出变量,$q$ 表示输出层向量,由于本次的任务是一个文本分类任务,那这里 $q$ 就表示文本类别,可以使用 $\mathbf{Softmax(O)}$ 来进行概率预测。 - -但是,上面的流程有一个很明显的前置条件:**固定成 $d$ 维向量**,也就是说,传统的多层感知机,是不能对变长序列进行处理的。但是,**在序列任务中,序列长短很明显是并不相同的**,不仅需要用一天的数据预测明天的结果,也可能需要拿一年的数据预测明天的结果。在这样的情况下,如果还想要使用传统的多层感知机,就会面临着一个巨大的问题:如何将一天的内容与一年的内容变化成相同的 $d$ 维向量? - -除此之外,序列信息可能还有另外一个情况:**某些信息可能出现在序列的不同位置。虽然信息出现在不同的位置,但是他可能表达出了相同的含义**。 - -举例来说:当我们和老师谈话时,如果他表扬了我们半小时,然后说:"但是...",我们往往是不担心的,因为他可能只是为了指出一些小问题。如果他刚刚表扬了一句话,紧接着就说“但是”,那我们就必须做好面对半小时的狂风暴雨。还有另外一种可能,老师可能连续批评你很久,然后使用“但是”转折,你就会在这时候如释重负,因为你知道这场谈话就快要结束了。这就是我们根据前文(表扬的内容和时间),在老师说出"但是"的时候,所作出的判断。 - -上面提到的两个问题,使用多层感知机本身似乎难以解决,但是所幸,RNN 从一个更常规的思路出发来解决这个问题:**记住之前看到的内容,并结合当前看到的内容,来预测之后可能的内容。** - -# RNN 理解及其简单实现 -根据开篇的内容,相信你已经可以简单的理解为什么传统的多层感知机无法很好的解决序列信息,接下来我们开始理解,RNN 如何记忆之前的内容的。 - -在这里,我先放出 RNN 的公式,请将其与多层感知机公式进行对比: -$$ -\mathbf{H}_t = \phi(\mathbf{X}_t \mathbf{W}_{xh} + \mathbf{H}_{t-1} \mathbf{W}_{hh} + \mathbf{b}_h). -$$ -可以看到,与上一个公式相比,这里最明显的一点是多了一个 $\mathbf{H}_{t-1} \mathbf{W}_{hh}$ ,从公式上似乎很好理解,$\mathbf{H}_{t-1}$ 表示着前一时刻的隐藏状态,表示的是**之前看到的内容**,然后加上当前时刻的输入 $\mathbf{X}_t$,就可以输出当前时刻的隐藏结果 $\mathbf{H}_{t}$。在得到隐藏结果后,它就可以被用于下一步的计算。 - - -当然,这个迭代过程也可能随时终止,如果将得到的隐藏结果用于输出,便可以直接得到输出结果,公式表达为: -$$ -\mathbf{O} = \phi(\mathbf{H}_{t} \mathbf{W}_{hq} + \mathbf{b}_q). -$$ - -可以看到,公式四与公式二极其相似,仅有隐藏状态 $\mathbf{H}$ 略有不同。 - -此时,根据以上公式及其理解,已经可以构建一个简单的 RNN 模型了: -```python -class RNNDemo(nn.Module): - def __init__(self, input_size, hidden_size, output_size): - super(CharRNNClassify, self).__init__() - - self.hidden_size = hidden_size - # 计算隐藏状态 H - # 因为要用以下一次计算,所以输出维度应该是 hidden_size - self.i2h = nn.Linear(input_size + hidden_size, hidden_size) - # 输出结果 O - self.i2o = nn.Linear(input_size + hidden_size, output_size) - self.softmax = nn.LogSoftmax(dim=1) - def forward(self, input, hidden): - # 将 X 和 Ht-1 合并 - combined = torch.cat((input, hidden), 1) - # 计算 Ht - hidden = self.i2h(combined) - # 计算当前情况下的输出 - output = self.i2o(combined) - # 分类任务使用 softmax 进行概率预测 - output = self.softmax(output) - # 返回预测结果 和 当前的隐藏状态 - return output, hidden - def initHidden(self): - # 避免随机生成的 H0 干扰后续结果 - return torch.zeros(1, self.hidden_size) -``` -辅助代码理解:根据公式三可知,$\mathbf{W}_{xh}$ 和 $\mathbf{W}_{hh}$ 在输入阶段时两者互不影响,所以在 `self.i2h = nn.Linear(input_size + hidden_size, hidden_size)` 中对输入的维度进行扩容,前 `input_size` 与公式 $\mathbf{W}_{xh}$ 对应,而后面的 `hidden_size` 则是和 $\mathbf{W}_{hh}$ 对应。 - -阅读代码之后,请根据代码和公式,来回忆第一部分提出的两个问题,通过回答这两个问题,就可以进一步的分析 RNN。 - -第一个问题是对于不同的序列长度,如何进行处理其向量表示: - -从公式中可以看到,RNN 并不要求不同的序列表示成相同的维度,而是要求序列中的每一个值,表示成为相同的维度,这样,我们可以将在 $t$ 时刻输入的值视为的 $\mathbf{X}_t$,并且结合之前时刻输入并计算得来的隐藏状态 $\mathbf{H}_{t-1}$,得到当前时刻的结果,这样无论序列实际长度如何,我们随时可以在想要中断的时候将隐藏状态转变成输出的结果,甚至我们可以在输入的同时,得到输出的结果。 -【图片,待补充】 - -第二个问题,某些信息可能出现在序列的不同位置,但是其表达的含义是相同的: - -对于这个问题,单独查看公式与代码可能不太好理解,但是可以从卷积神经网络中得到一定的灵感。 - -卷积神经网络具有平移等变性,也就是说输入的 $\mathbf{X}$ 不会因为位置的变化而导致输出的不同,这得益于卷积核使用了参数共享,无论图片哪个位置进行输入,只要卷积核的参数不变,输入值就不变,其结果就不会发生变化。 - -扭回头来看 RNN 中,其 $\mathbf{X}$ 与 $\mathbf{H}$ 所使用的权重矩阵一直是一个,也就是说 $\mathbf{W}_{xh}$ 和 $\mathbf{W}_{hh}$ 是参数共享的,那么无论从序列的哪个位置进行输入,只要输入内容完全一样,其输出结果也就是完全一样的的。 - -在理解了 RNN 来龙去脉之后,接下来开始从 RNN 的在实际文本分类中进行更深入的分析。(注:该样例源自 [Torch 官方教程](https://pytorch.org/tutorials/intermediate/char_rnn_classification_tutorial.html))。 - -# RNN 完成文本分类任务 -完成一个基本的算法任务,有以下流程:数据分析、数据转换、构建模型、定义训练函数、执行训练、保存模型、评估模型。 - -这里摘取官方教程中部分关键代码进行讲解,可以直接[点击这里](https://pytorch.org/tutorials/_downloads/13b143c2380f4768d9432d808ad50799/char_rnn_classification_tutorial.ipynb)直接下载官方 notebook进行训练。训练所用数据位于[这里](https://download.pytorch.org/tutorial/data.zip)。 - -在 notebook 第一个可执行 cell 中,首先定义了可用字符 `all_letters` 和 可用字符数量 `n_letters` 。同时,将下载的数据转为 ASCII 编码,使用 Dict l类型进行存储。其保存格式为:``{language: [names ...]}``。 - -在第三个 cell 中,定义了三个方法,主要目的是将由 $n$ 个字符组成的句子变成一个 $n \times d$ 的向量,其中 $d$ 表示字符特征,在这里使用 One-Hot 编码。由于 One-Hot 编码形为 $1 \times n\_letters$,则最终形状为 $n \times 1 \times n\_letters$。 - -第四个 Cell 中,定义了基本的 RNN 模型的代码与上方代码一致,并设置隐藏层大小为128。接下来的第五个和第六个可执行 Cell中,对于 RNN 进行简单的测试。 - -在这里,简单的讲解第六个 Cell,第六个 Cell 代码如下: -```python -# 将 Albert 转为 6 * 1 * n_letters 的 Tensor -input = lineToTensor('Albert') -# 设置 h0 全零的原因在上面提到过 -hidden = torch.zeros(1, n_hidden) -# 获取 output 和 h1 -output, next_hidden = rnn(input[0], hidden) -print(output) -``` -第三行中 ` rnn(input[0], hidden)`,输入了首字母 也就是 'A' 的 One-Hot 编码,输出 `output` 是下一个字符可能是什么的概率,而 `next-hidden` 则是 用于搭配 `input[1]` 进行下一步输入训练的模型。 - -跳过七八九三个 Cell 后,我们再对 train 所在的 Cell 进行分析,下面是相关代码: -```python -# 设置学习率 -learning_rate = 0.005 -# 输入参数中, categor_tensor 表示类别,用以计算 loss -# line_tensor 是由一句话所转变的 tensor, shape: n * 1 * n_letter -def train(category_tensor, line_tensor): - # 设置 H0 - hidden = rnn.initHidden() - # 梯度清零 - rnn.zero_grad() - # 将字符挨个输入 - for i in range(line_tensor.size()[0]): - output, hidden = rnn(line_tensor[i], hidden) - # 计算损失 - loss = criterion(output, category_tensor) - # 梯度回传 - loss.backward() - - # Add parameters' gradients to their values, multiplied by learning rate - # 这里其实是一个手动的优化器 optimizer - for p in rnn.parameters(): - p.data.add_(p.grad.data, alpha=-learning_rate) - - return output, loss.item() -``` -结合注释,进一步观察代码,可以看到,对于一个变长序列,在输入最后一个字符之前,都使用 `hidden` 作为输出用于下一步的计算,也就是将历史信息带入下一轮训练中去,而在最后一个字符输入结束后,使用 `outpt` 作为输出,进行文本分类的预测。 - -在 `train` 中的代码进行了对一句话进行了单独的训练,而实际过程中,我们要对多个句子进行训练,在示例代码中,采用随机采样法,从全部数据中随机提取一句话进行训练,并得到最终结果: -```python -import time -import math -# 迭代次数 -n_iters = 100000 -# 输出频率 -print_every = 5000 -# loss计算频率 -plot_every = 1000 - -# Keep track of losses for plotting -current_loss = 0 -all_losses = [] - -def timeSince(since): - now = time.time() - s = now - since - m = math.floor(s / 60) - s -= m * 60 - return '%dm %ds' % (m, s) -# 开始时间 -start = time.time() - -for iter in range(1, n_iters + 1): - # 使用随机采样提取一句话及其标签 - category, line, category_tensor, line_tensor = randomTrainingExample() - # 训练 - output, loss = train(category_tensor, line_tensor) - # 计算loss - current_loss += loss - - # Print iter number, loss, name and guess - # 输出阶段结果 - if iter % print_every == 0: - guess, guess_i = categoryFromOutput(output) - correct = '✓' if guess == category else '✗ (%s)' % category - print('%d %d%% (%s) %.4f %s / %s %s' % (iter, iter / n_iters * 100, timeSince(start), loss, line, guess, correct)) - - # Add current loss avg to list of losses - # 保存阶段性 loss - if iter % plot_every == 0: - all_losses.append(current_loss / plot_every) - current_loss = 0 -``` -到这里,RNN 训练的代码可以说讲解结束了,保存以及推理在理解了训练的过程上并不算难事,所以不再进行讲解。 - -接下来再根据文本分类任务对 RNN 进行一次分析。可以看到,在本次任务中,一个单独的词作为一个序列,每个词的长短不一并不会影响 RNN 的训练过程,而序列中的值,则是字符,每个字符都构成了相同的向量: $1 \times d$ ,这使得训练的过程也比较的统一。 - -再简单的举一反三,可以结合之前所学的 word2vec、Glovec 等模型将词语转为向量,将一句话转为一个序列,每个词转为序列中的一个值,这样的话,就可以对一句话进行文本分类了。 - -# RNN 存在的问题 - -前面讲解了 RNN 是如何解决简单神经网络无法处理序列问题的,但是 RNN 是否就完美无缺?能应用于全部的序列任务了呢?答案当然是否定的。 - -这是由于 RNN 存在一个巨大的缺陷:梯度爆炸与梯度消失。 - -重新审查代码与公式,可以很轻松的发现,在序列达到末尾时,我们才需要计算损失与进行梯度回传,此时将 $\mathbf{H}_t$ 展开,其内部存在 $\mathbf{W}_{hh} \times \mathbf{H}_{t-1}$。而将 $\mathbf{H}_{t-1}$ 展开,也存在一个 $\mathbf{W}_{hh}$,那么很明显 如果 $\mathbf{W}_{hh}$ 大于 1,在经过 $t$ 次连乘之后会产生梯度爆炸,如果 $\mathbf{W}_{hh}$ 小于 1,在经过 $t$ 次连乘之后又会产生梯度消失。同理,在 $\mathbf{W}_{xh}$ 上,也存在这样的依赖关系,也会导致梯度爆炸或者消失。 - -梯度的消失也可以这样思考:前方节点的隐藏信息总和占了 0.5,而当前节点隐藏信息占了 0.5,随着序列长度的增加,位于开始部分节点的隐藏信息占比几乎是指数型下降,从 1/2 到 1/4 到 1/8,以此类推。可以参考下图尝试理解。因此,在 RNN 中,梯度消失就成了一个比梯度爆炸更关注的难题,因为这使得模型只能记得离自己最近的几个节点的状态,而很难考虑更远一步的状态,无法更好的关联上下文信息。 - - - - -为了解决这个问题,我们可以考虑使用 梯度剪裁的方式保证梯度传递过程中不大于1,从而使得梯度不会爆炸,但是,我们无法阻止梯度的消失。当然,也可以查看下一篇,针对 RNN 进行优化的 LSTM、GRU 等算法 - - - - - - - - - - - - - - diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/ResNet\346\272\220\347\240\201\350\247\243\350\257\273.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/ResNet\346\272\220\347\240\201\350\247\243\350\257\273.md.txt" deleted file mode 100644 index 6b9428f7a..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/ResNet\346\272\220\347\240\201\350\247\243\350\257\273.md.txt" +++ /dev/null @@ -1,377 +0,0 @@ -# ResNet源码解读 - -本文对残差神经网络(ResNet)的源码进行解读。残差神经网络是由微软研究院的何恺明、张祥雨、任少卿、孙剑等人提出的。它的主要贡献是发现了在增加网络层数的过程中,‎随着训练精度(Training accuracy)‎逐渐趋于饱和,继续增加层数,training accuracy 就会出现下降的现象,而这种下降不是由过拟合造成的。他们将这一现象称之为“退化现象(Degradation)”,并针对退化现象发明了 “快捷连接(Shortcut connection)”,极大的消除了深度过大的神经网络训练困难问题。神经网络的“深度”首次突破了100层、最大的神经网络甚至超过了1000层。(在此,向已故的孙剑博士表示崇高的敬意) - -通过本文你将学习到: - -- 梯度消失/爆炸的简介 - -- 代码里面为什么要设计BasicBlock和Bottleneck两种结构 - -- 代码里面的expansion作用 - -## 1 基本介绍 - -随着卷积神经网络的出现,人们发现多层卷积或者全连接网络的效果大于单层卷积或者全连接网络。于是很多人潜意识认为网络的层数越多,其效果就会越好。但是当时微软研究院的何恺明、张祥雨、任少卿、孙剑等人发现加深网络的深度后,整个网络的效果反而变差了许多。他们认为很深的网络无法训练的原因可能是网络在信息传递的时候或多或少会存在信息丢失,损耗等问题,同时还可能出现梯度消失或者梯度爆炸现象。针对这个问题,他们提出了ResNet以期望解决这个问题,ResNet的出现也让神经网络逐渐真正走向深度神经网络。ResNet最大的贡献在于添加了shortcut connection将输入直接连接到后面的层,一定程度缓解了梯度消失和梯度爆炸并提高了深度神经网络的效果。接下来我们详细的解释一下**梯度消失**和**梯度爆炸**。 - -梯度消失和梯度爆炸的根源主要是因为深度神经网络结构以及反向传播算法,目前优化神经网络的方法都是基于反向传播的思想,即根据损失函数计算的误差通过反向传播的方式,指导深度网络权值的更新。误差梯度是神经网络训练过程中计算的方向和数量,用于以正确的方向和合适的量更新网络权重。 在深层网络或循环神经网络中,误差梯度可在更新中累积,变成非常大的梯度,然后导致网络权重的大幅更新,并因此使网络变得不稳定。在极端情况下,权重的值变得非常大,以至于溢出,导致 NaN 值。 **网络层之间的梯度(值大于 1.0)重复相乘导致的指数级增长会产生梯度爆炸。** 在深度多层感知机网络中,梯度爆炸会引起网络不稳定,最好的结果是无法从训练数据中学习,而最坏的结果是出现无法再更新的 NaN 权重值。 - -而在某些情况下,梯度会变得非常小, **网络层之间的梯度(值小于 1.0)重复相乘导致的指数级变小会产生梯度消失**。在最坏的情况下,这可能会完全停止神经网络的进一步训练。例如,传统的激活函数(如双曲正切函数)具有范围(0,1)内的梯度,反向传播通过链式法则计算梯度。这样做的效果是,用这些小数字的n乘以n来计算n层网络中“前端”层的梯度,这意味着梯度(误差信号)随n呈指数递减,而前端层的训练非常缓慢。最终导致更新停滞。 -## 2 源码解读 - -为了帮助大家对ResNet有更好的理解,我们使用[torchvision的ResNet源码](https://github.com/pytorch/vision/blob/master/torchvision/models/resnet.py)进行解读。 - -### 2.1 卷积核的封装 - -在代码的开始,首先封装了3x3和1x1的卷积核,这样可以增加代码的可读性。除了这种代码写法外,还有许多深度学习代码在开始也会将卷积层,激活函数层和BN层封装在一起,同样是为了增加代码的可读性。 - -```python -def conv3x3(in_planes: int, out_planes: int, stride: int = 1, groups: int = 1, dilation: int = 1) -> nn.Conv2d: - """3x3 convolution with padding""" - return nn.Conv2d( - in_planes, - out_planes, - kernel_size=3, - stride=stride, - padding=dilation, - groups=groups, - bias=False, - dilation=dilation, - ) - - -def conv1x1(in_planes: int, out_planes: int, stride: int = 1) -> nn.Conv2d: - """1x1 convolution""" - return nn.Conv2d(in_planes, out_planes, kernel_size=1, stride=stride, bias=False) -``` - -### 2.2 基本模块的设计 - -ResNet网络是由很多相同的模块堆叠起来的,为了保证代码具有可读性和可扩展性,ResNet在设计时采用了模块化设计,针对不同大小的ResNet,书写了BasicBlock和BottleNeck两个基本模块。这种模块化的设计在现在许多常见的深度学习代码中我们可以经常看到。 - -ResNet常见的大小有下图的ResNet-18,ResNet-34,ResNet-50、ResNet-101和ResNet-152,其中网络后面的数字代表的是网络的层数。 - -![expansion](./figures/expansion.jpg) - -为了帮助大家更好的理解,我们以ResNet101为例。 - -| layer_name | 次数 | -| ---------- | ------------------------------- | -| conv1 | 卷积1次 | -| conv2_x | 卷积3 x 3 = 9次 | -| conv3_x | 卷积4 x 3 = 12次 | -| conv4_x | 卷积23 x 3 = 69次 | -| conv5_x | 卷积3 x 3 = 9次 | -| fc | average pool 1次 | -| 合计 | 1 + 9 + 12 + 69 + 9 + 1 = 101次 | - -观察上面各个ResNet的模块,我们可以发现ResNet-18和ResNet-34每一层内,数据的大小不会发生变化,但是ResNet-50、ResNet-101和ResNet-152中的每一层内输入和输出的channel数目不一样,输出的channel扩大为输入channel的4倍,除此之外,每一层的卷积的大小也变换为1,3,1的结构。基于这个发现,我们可以将ResNet-18和ResNet-34的构成模块当作一类,ResNet-50、ResNet-101和ResNet-152这三类网络的构成模块当作一类。事实上,torchvision的源码也是基于这种设计思想,使用如下图的BasicBlock(左)和BottleNeck(右)模块,并且为了控制输入和输出的通道数目的变化,在代码中输出的通道维度也通过expansion进行控制,两个block类输入一个通道为in_planes维的度特征图,输出一个planes\*block.expansion维的特征图,其中planes的数目大小等于in_planes。除此以外,代码右侧的曲线就是本文最重要的shortcut支路,该支路上的downsample操作是为了对shortcut支路进行大小或维度上的调整,以希望执行相加操作 - -![block](./figures/block.jpg) - -#### 2.2.1 Shortcut Connection. - -这里再分析一下shortcut connection: - -![shortcut](./figures/shortcut.jpg) - -shortcut connection也就是所谓的“抄近道”,它有两种方式,其一为同等维度的映射,即输入输出直接相加(即上图中的F(x) + x),另一种为不同维度的映射,这时候就需要给x补充一个线性映射来匹配维度。 - -比如下面这个图: - - - -左:VGG-19模型,作为参考。 中:一个有34个参数层的普通网络。 右:一个有34个参数层的残差网络(即resnet34) - -在上图最右侧的路径中,我们可以很明显的看到shortcut connection加入了网络之中,同时,图中也很明显的可以看到,实线部分就是进行了单纯的F(x)+x操作,而虚线部分,第一个卷积层的stride是2(那个/2的意思就是stride是2);同时注意到深度也发生了变换,channel数目增加一倍(扩大两倍),这样F(x)的分辨率比x小一半,厚度比x大一倍。在这样的shortcut connection中,就需要补充线性映射来增加维度。在ResNet中,作者使用了1 x 1的卷积核来达到这个目的。 - -另外,论文中又提到说:“……where both designs have similar time complexity.” 既然BasicBlock和Bottleneck二者的时间复杂度类似,那么为什么还要额外设计一个Bottleneck结构呢? - -根据前面的叙述我们知道,BasicBlock结构比传统的卷积结构多了一个shortcut支路,用于传递低层的信息,使得网络能够训练地很深。而BottleNeck先通过一个1x1的卷积减少通道数,使得中间卷积的通道数减少为1/4;中间的普通卷积做完卷积后输出通道数等于输入通道数;第三个卷积用于恢复通道数,使得BottleNeck的输出通道数等于BottleNeck的输入通道数。**换句话说,这两个1x1卷积有效地减少了卷积的参数个数和计算量,同时减少了中间特征图的通道数,使单个Block消耗的显存更少,在较深的网络中BottleNeck会在参数上更加节约,这样可以有利于构建层数更多的网络,同时还能保持性能的提升。**所以resnet50, resnet101和resnet152使用了另外设计的BottleNeck结构。 - -#### 2.2.2 BasicBlock - -BasicBlock模块用来构建resnet18和resnet34 - -```python -class BasicBlock(nn.Module): - expansion: int = 1 - - def __init__( - self, - inplanes: int, - planes: int, - stride: int = 1, - downsample: Optional[nn.Module] = None, - groups: int = 1, - base_width: int = 64, - dilation: int = 1, - norm_layer: Optional[Callable[..., nn.Module]] = None, - ) -> None: - super().__init__() - if norm_layer is None: - norm_layer = nn.BatchNorm2d - if groups != 1 or base_width != 64: - raise ValueError("BasicBlock only supports groups=1 and base_width=64") - if dilation > 1: - raise NotImplementedError("Dilation > 1 not supported in BasicBlock") - # Both self.conv1 and self.downsample layers downsample the input when stride != 1 - self.conv1 = conv3x3(inplanes, planes, stride) - self.bn1 = norm_layer(planes) - self.relu = nn.ReLU(inplace=True) - self.conv2 = conv3x3(planes, planes) - self.bn2 = norm_layer(planes) - self.downsample = downsample - self.stride = stride - - def forward(self, x: Tensor) -> Tensor: - identity = x # x 给自己先备份一份 - - out = self.conv1(x) # 对x做卷积 - out = self.bn1(out) # 对x归一化 - out = self.relu(out) # 对x用激活函数 - - out = self.conv2(out) # 对x做卷积 - out = self.bn2(out) # 归一化 - - if self.downsample is not None: - identity = self.downsample(x) - - out += identity # 进行downsample - out = self.relu(out) - - return out -``` - -#### 2.2.3 BottleNeck - -BottleNeck模块用来构建resnet50,resnet101和resnet152 - -```python -class Bottleneck(nn.Module): - # Bottleneck in torchvision places the stride for downsampling at 3x3 convolution(self.conv2) - # while original implementation places the stride at the first 1x1 convolution(self.conv1) - # according to "Deep residual learning for image recognition"https://arxiv.org/abs/1512.03385. - # This variant is also known as ResNet V1.5 and improves accuracy according to - # https://ngc.nvidia.com/catalog/model-scripts/nvidia:resnet_50_v1_5_for_pytorch. - - expansion: int = 4 # 对输出通道进行倍增 - - def __init__( - self, - inplanes: int, - planes: int, - stride: int = 1, - downsample: Optional[nn.Module] = None, - groups: int = 1, - base_width: int = 64, - dilation: int = 1, - norm_layer: Optional[Callable[..., nn.Module]] = None, - ) -> None: - super().__init__() - if norm_layer is None: - norm_layer = nn.BatchNorm2d - width = int(planes * (base_width / 64.0)) * groups - # Both self.conv2 and self.downsample layers downsample the input when stride != 1 - self.conv1 = conv1x1(inplanes, width) - self.bn1 = norm_layer(width) - self.conv2 = conv3x3(width, width, stride, groups, dilation) - self.bn2 = norm_layer(width) - self.conv3 = conv1x1(width, planes * self.expansion) - self.bn3 = norm_layer(planes * self.expansion) - self.relu = nn.ReLU(inplace=True) - self.downsample = downsample - self.stride = stride - - # Bottleneckd forward函数和BasicBlock类似,不再额外注释 - def forward(self, x: Tensor) -> Tensor: - identity = x - - out = self.conv1(x) - out = self.bn1(out) - out = self.relu(out) - - out = self.conv2(out) - out = self.bn2(out) - out = self.relu(out) - - out = self.conv3(out) - out = self.bn3(out) - - if self.downsample is not None: - identity = self.downsample(x) - - out += identity - out = self.relu(out) - - return out -``` - -我们在这里再对代码中**expansion**的作用做一个说明,我们可以重新回顾一下下面这张图。 - -![](./figures/expansion.jpg) - -expansion简单来说就是对输出通道的倍乘。在BasicBlock和BottleNeck中,“\_\_init\_\_”函数中有三个比较关键的参数:inplanes,planes和stride,这三者分别表示输入的通道数,输出的通道数和步幅。在两个模块中,\_\_init__传入的planes都是64,128,156,512,但我们观察上面的表格,会发现对于ResNet-50,ResNet-101和ResNet-152而言,它们需要的输出通道应该为256,512,1024,2048才对。因此在这里设置expansion=4,对应上面BottleNeck代码中的30行和31行,将每一个planes都乘上这个expansion,就得到了需要的通道数;而对于ResNet-18和ResNet-34而言,输入通道和输出通道的维度上没有发生变化,因此expansion也设置为1。 - -### 2.3 网络整体结构 - -在定义好最基本的Bottlenneck和BasicBlock后,我们就可以构建ResNet网络了。 - -```python -class ResNet(nn.Module): - def __init__( - self, - block: Type[Union[BasicBlock, Bottleneck]], # 选择基本模块 - layers: List[int], # 每一层block的数目构成 -> [3,4,6,3] - num_classes: int = 1000, # 分类数目 - zero_init_residual: bool = False, # 初始化 - - #######其他卷积构成,与本文ResNet无关###### - groups: int = 1, - width_per_group: int = 64, - replace_stride_with_dilation: Optional[List[bool]] = None, - ######################################### - - norm_layer: Optional[Callable[..., nn.Module]] = None, # norm层 - ) -> None: - super().__init__() - _log_api_usage_once(self) - if norm_layer is None: - norm_layer = nn.BatchNorm2d - self._norm_layer = norm_layer - - self.inplanes = 64 # 输入通道 - - #######其他卷积构成,与本文ResNet无关###### - self.dilation = 1 # 空洞卷积 - if replace_stride_with_dilation is None: - # each element in the tuple indicates if we should replace - # the 2x2 stride with a dilated convolution instead - replace_stride_with_dilation = [False, False, False] - if len(replace_stride_with_dilation) != 3: - raise ValueError( - "replace_stride_with_dilation should be None " - f"or a 3-element tuple, got {replace_stride_with_dilation}" - ) - self.groups = groups - self.base_width = width_per_group - ######################################### - - self.conv1 = nn.Conv2d(3, self.inplanes, kernel_size=7, stride=2, padding=3, bias=False) - self.bn1 = norm_layer(self.inplanes) - self.relu = nn.ReLU(inplace=True) - self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1) - # 通过_make_layer带到层次化设计的效果 - self.layer1 = self._make_layer(block, 64, layers[0]) # 对应着conv2_x - self.layer2 = self._make_layer(block, 128, layers[1], stride=2, dilate=replace_stride_with_dilation[0]) # 对应着conv3_x - self.layer3 = self._make_layer(block, 256, layers[2], stride=2, dilate=replace_stride_with_dilation[1]) # 对应着conv4_x - self.layer4 = self._make_layer(block, 512, layers[3], stride=2, dilate=replace_stride_with_dilation[2]) # 对应着conv5_x - # 分类头 - self.avgpool = nn.AdaptiveAvgPool2d((1, 1)) - self.fc = nn.Linear(512 * block.expansion, num_classes) - - # 模型初始化 - for m in self.modules(): - if isinstance(m, nn.Conv2d): - nn.init.kaiming_normal_(m.weight, mode="fan_out", nonlinearity="relu") - elif isinstance(m, (nn.BatchNorm2d, nn.GroupNorm)): - nn.init.constant_(m.weight, 1) - nn.init.constant_(m.bias, 0) - - # Zero-initialize the last BN in each residual branch, - # so that the residual branch starts with zeros, and each residual block behaves like an identity. - # This improves the model by 0.2~0.3% according to https://arxiv.org/abs/1706.02677 - if zero_init_residual: - for m in self.modules(): - if isinstance(m, Bottleneck) and m.bn3.weight is not None: - nn.init.constant_(m.bn3.weight, 0) # type: ignore[arg-type] - elif isinstance(m, BasicBlock) and m.bn2.weight is not None: - nn.init.constant_(m.bn2.weight, 0) # type: ignore[arg-type] - # 层次化设计 - def _make_layer( - self, - block: Type[Union[BasicBlock, Bottleneck]], # 基本构成模块选择 - planes: int, # 输入的通道 - blocks: int, # 模块数目 - stride: int = 1, # 步长 - dilate: bool = False, # 空洞卷积,与本文无关 - ) -> nn.Sequential: - norm_layer = self._norm_layer - downsample = None # 是否采用下采样 - ####################无关##################### - previous_dilation = self.dilation - if dilate: - self.dilation *= stride - stride = 1 - ############################################# - if stride != 1 or self.inplanes != planes * block.expansion: - downsample = nn.Sequential( - conv1x1(self.inplanes, planes * block.expansion, stride), - norm_layer(planes * block.expansion), - ) - - # 使用layers存储每个layer - layers = [] - layers.append( - block( - self.inplanes, planes, stride, downsample, self.groups, self.base_width, previous_dilation, norm_layer - ) - ) - self.inplanes = planes * block.expansion - for _ in range(1, blocks): - layers.append( - block( - self.inplanes, - planes, - groups=self.groups, - base_width=self.base_width, - dilation=self.dilation, - norm_layer=norm_layer, - ) - ) - # 将layers通过nn.Sequential转化为网络 - return nn.Sequential(*layers) - - def _forward_impl(self, x: Tensor) -> Tensor: - # See note [TorchScript super()] - x = self.conv1(x) # conv1 x shape [1 64 112 112] - x = self.bn1(x) # 归一化处理 - x = self.relu(x) # 激活函数 - x = self.maxpool(x) # conv2_x的3x3 maxpool x shape [1 64 56 56] - - x = self.layer1(x) # layer 1 - x = self.layer2(x) # layer 2 - x = self.layer3(x) # layer 3 - x = self.layer4(x) # layer 4 - - x = self.avgpool(x) # 自适应池化 - x = torch.flatten(x, 1) - x = self.fc(x) # 分类 - - return x - - def forward(self, x: Tensor) -> Tensor: - return self._forward_impl(x) -``` - -观察上述代码,我们不难看到,首先是一个7 x 7的卷积作用在输入的3维图片上,并输入一个64维的特征图(即self.inplanes的初始值),通过BatchNorm层,ReLU层,MaxPool层;然后经过_make_layer()函数构建的4层layer,最后经过一个AveragePooling层,再经过一个fc层得到分类输出。在网络搭建起来后,还对模型的参数(Conv2d、BatchNorm2d、last BN)进行了初始化。 - -而对于\_make_layer函数,一个_make_layer()构建一个layer层,每一个layer层是上述两种基本模块的堆叠。输入参数中block代表该layer堆叠模块的类型,可选BasicBlock或者BottleNeck;blocks代表该layer中堆叠的block的数目;planes与该layer最终输出的维度数有关,注意最终输出的维度数为planes * block.expansion。除此之外, _make\_layer()是用来生成残差块的,这就牵扯到它的第四个参数:stride,即卷积步幅。该函数中首先定义了如果stride不等于1或者维度不匹配(即输入通道不满足对应关系)的时候的downsample,然后对其进行一次BN操作。接着对inplanes和planes不一致的情况进行了一次downsample ,即将带downsample的block添加至layers。这样保证了x和out的维度一致,接下来通过一个循环添加了指定个数的Block,由于x已经维度一致了,这样添加的其他的Block就可以不用降维了,所以循环添加不含Downsample的Block。正如下面代码所示 - -```python -if stride != 1 or self.inplanes != planes * block.expansion: - downsample = nn.Sequential( - conv1x1(self.inplanes, planes * block.expansion, stride), - norm_layer(planes * block.expansion), - ) -``` - -当一个layer包含多个block时,是通过向layers列表中依次加入每个block,来实现block的堆叠的。第一个block需要特殊处理,该block依据传入的self.inplanes, planes以及stride判断,可能含有downsample支路;这个block的输出维度是planes\*block.expansion。紧接着便把self.inplanes更新为此值作为后续block的输入维度。后面的block的stride为默认值1,同时,由于输入为self.inplanes,输出为planes*block.expansion,而self.inplanes = planes * block.expansion,因此不会出现特征图大小或者尺寸不一致的情况,不可能出现downsample操作。 - -## 3 总结 - -与普通的网络相比,ResNet最大的优势就是引入了Shortcut这个支路,让某一层可以直接连接到后面的层,使得后面的层可以直接学习残差。传统的卷积层或全连接层在信息传递时,或多或少会存在信息丢失、损耗等问题。ResNet 在某种程度上解决了这个问题,通过直接将输入信息绕道传到输出,保护信息的完整性,整个网络则只需要学习输入、输出差别的那一部分,简化学习目标和难度。 - -ResNet的出现,在一定程度上解决了卷积神经网络随深度的增加,但是模型效果却变差的问题,用作者的话说,就是: “Our deep residual nets can easily enjoy accuracy gains from greatly increased depth, producing results substantially better than previous networks.”。原始的ResNet对于训练卷积神经网路做出了很大的贡献,但是同样也有着许多可以改进的地方。随着时代的发展,原版的ResNet在一次又一次的研究中得到了丰富和完善,衍生出了丰富的改进的模型,如ResNeXt。它提出了一种介于普通卷积核深度可分离卷积的这种策略:分组卷积。通过控制分组的数量(基数)来达到两种策略的平衡。分组卷积的思想是源自Inception,不同于Inception的需要人工设计每个分支,ResNeXt的每个分支的拓扑结构是相同的。最后再结合残差网络,得到的便是最终的ResNeXt。 - -除此之外,ResNet还有其它变体如Wider ResNet,DarkNet53等。它们的改进相对较大,尤其是DarkNet53,它和ResNet已经有很大不同了,只是使用到了残差连接从而复用特征而已。总而言之,ResNet作为卷积神经网络的一个里程碑式的模型一直在各个领域被应用,因此我们学习这样一个模型架构很有必要。毫不夸张的说,ResNet值得每一个学习深度学习的学子认真研究。 diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/Swin-Transformer\350\247\243\350\257\273.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/Swin-Transformer\350\247\243\350\257\273.md.txt" deleted file mode 100644 index 536d8a026..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/Swin-Transformer\350\247\243\350\257\273.md.txt" +++ /dev/null @@ -1,567 +0,0 @@ -# Swin Transformer解读 - -

-[Swin-T] Swin Transformer: Hierarchical Vision Transformer using Shifted Windows -
-Ze Liu, Yutong Lin, Yue Cao, Han Hu, Yixuan Wei, Zheng Zhang, Stephen Lin, Baining Guo. -
-ICCV 2021. -[paper] [code] -
-解读者:沈豪,复旦大学博士,Datawhale成员 -
-

- -## 前言 - -《[Swin Transformer: Hierarchical Vision Transformer using Shifted Windows](https://arxiv.org/abs/2103.14030)》作为2021 ICCV最佳论文,屠榜了各大CV任务,性能优于DeiT、ViT和EfficientNet等主干网络,已经替代经典的CNN架构,成为了**计算机视觉领域通用的backbone**。它基于了ViT模型的思想,创新性的引入了**滑动窗口机制**,让模型能够学习到跨窗口的信息,同时也。同时通过**下采样层**,使得模型能够处理超分辨率的图片,节省计算量以及能够关注全局和局部的信息。而本文将从原理和代码角度详细解析Swin Transformer的架构。 - -目前将 Transformer 从自然语言处理领域应用到计算机视觉领域主要有两大挑战: - -- 视觉实体的方差较大,例如同一个物体,拍摄角度不同,转化为二进制后的图片就会具有很大的差异。同时在不同场景下视觉 Transformer 性能未必很好。 -- 图像分辨率高,像素点多,如果采用ViT模型,自注意力的计算量会与像素的平方成正比。 - -针对上述两个问题,论文中提出了一种基于**滑动窗口机制,具有层级设计(下采样层)** 的 Swin Transformer。 - -其中**滑窗操作**包括**不重叠的 local window,和重叠的 cross-window**。将注意力计算限制在一个窗口(window size固定)中,**一方面能引入 CNN 卷积操作的局部性,另一方面能大幅度节省计算量**,它只和窗口数量成线性关系。通过**下采样**的层级设计,能够逐渐增大感受野,从而使得注意力机制也能够注意到**全局**的特征。 - -Swin-T&ViT - -在论文的最后,作者也通过大量的实验证明Swin Transformer相较于以前的SOTA模型均有提高,尤其是在ADE20K数据和COCO数据集上的表现。也证明了Swin Transformer可以作为一种通用骨干网络被使用。 - -## 模型结构 - -![Architecture](./figures/Architecture.png) - -整个模型采取层次化的设计,一共包含 4 个 Stage,除第一个 stage 外,每个 stage 都会先通过 **Patch Merging** 层缩小输入特征图的分辨率,进行**下采样操作**,像 CNN 一样逐层扩大感受野,以便获取到全局的信息。 - -以论文的角度: - -- 在输入开始的时候,做了一个`Patch Partition`,即ViT中`Patch Embedding`操作,通过 **Patch_size** 为4的卷积层将图片切成一个个 **Patch** ,并嵌入到`Embedding`,将 **embedding_size** 转变为48(可以将 CV 中图片的**通道数**理解为NLP中token的**词嵌入长度**)。 -- 随后在第一个Stage中,通过`Linear Embedding`调整通道数为C。 -- 在每个 Stage 里(除第一个 Stage ),均由`Patch Merging`和多个`Swin Transformer Block`组成。 -- 其中`Patch Merging`模块主要在每个 Stage 一开始降低图片分辨率,进行下采样的操作。 -- 而`Swin Transformer Block`具体结构如右图所示,主要是`LayerNorm`,`Window Attention` ,`Shifted Window Attention`和`MLP`组成 。 - -从代码的角度: - -在微软亚洲研究院提供的代码中,是将`Patch Merging`作为每个 Stage 最后结束的操作,输入先进行`Swin Transformer Block`操作,再下采样。而**最后一个 Stage 不需要进行下采样操作**,之间通过后续的全连接层与 **target label** 计算损失。 - -![code_Architecture](./figures/code_Architecture.png) - -```python -# window_size=7 -# input_batch_image.shape=[128,3,224,224] -class SwinTransformer(nn.Module): - def __init__(...): - super().__init__() - ... - # absolute position embedding - if self.ape: - self.absolute_pos_embed = nn.Parameter(torch.zeros(1, num_patches, embed_dim)) - - self.pos_drop = nn.Dropout(p=drop_rate) - - # build layers - self.layers = nn.ModuleList() - for i_layer in range(self.num_layers): - layer = BasicLayer(...) - self.layers.append(layer) - - self.norm = norm_layer(self.num_features) - self.avgpool = nn.AdaptiveAvgPool1d(1) - self.head = nn.Linear(self.num_features, num_classes) if num_classes > 0 else nn.Identity() - - def forward_features(self, x): - x = self.patch_embed(x) # Patch Partition - if self.ape: - x = x + self.absolute_pos_embed - x = self.pos_drop(x) - - for layer in self.layers: - x = layer(x) - - x = self.norm(x) # Batch_size Windows_num Channels - x = self.avgpool(x.transpose(1, 2)) # Batch_size Channels 1 - x = torch.flatten(x, 1) - return x - - def forward(self, x): - x = self.forward_features(x) - x = self.head(x) # self.head => Linear(in=Channels,out=Classification_num) - return x -``` - -其中有几个地方处理方法与 ViT 不同: - -- ViT 在输入会给 embedding 进行位置编码。而 Swin-T 这里则是作为一个**可选项**(`self.ape`),Swin-T 是在计算 Attention 的时候做了一个**相对位置编码**,我认为这是这篇论文设计最巧妙的地方。 -- ViT 会单独加上一个可学习参数,作为分类的 token。而 Swin-T 则是**直接做平均**(avgpool),输出分类,有点类似 CNN 最后的全局平均池化层。 - - - -## Patch Embedding - -在输入进 Block 前,我们需要将图片切成一个个 patch,然后嵌入向量。 - -具体做法是对原始图片裁成一个个 `window_size * window_size` 的窗口大小,然后进行嵌入。 - -这里可以通过二维卷积层,**将 stride,kernel_size 设置为 window_size 大小**。设定输出通道来确定嵌入向量的大小。最后将 H,W 维度展开,并移动到第一维度。 - -> 论文中输出通道设置为48,但是代码中为96,以下我们均以代码为准。 -> -> Batch_size=128 - -![Patch_embedding](./figures/Patch_embedding.png) - -```python -import torch -import torch.nn as nn - -class PatchEmbed(nn.Module): - def __init__(self, img_size=224, patch_size=4, in_chans=3, embed_dim=96, norm_layer=None): - super().__init__() - img_size = to_2tuple(img_size) # -> (img_size, img_size) - patch_size = to_2tuple(patch_size) # -> (patch_size, patch_size) - patches_resolution = [img_size[0] // patch_size[0], img_size[1] // patch_size[1]] - self.img_size = img_size - self.patch_size = patch_size - self.patches_resolution = patches_resolution - self.num_patches = patches_resolution[0] * patches_resolution[1] - - self.in_chans = in_chans - self.embed_dim = embed_dim - - self.proj = nn.Conv2d(in_chans, embed_dim, kernel_size=patch_size, stride=patch_size) - if norm_layer is not None: - self.norm = norm_layer(embed_dim) - else: - self.norm = None - - def forward(self, x): - # 假设采取默认参数,论文中embedding_size是96,但是代码中为48.我们以代码为准 - x = self.proj(x) # 出来的是(N, 96, 224/4, 224/4) - x = torch.flatten(x, 2) # 把HW维展开,(N, 96, 56*56) - x = torch.transpose(x, 1, 2) # 把通道维放到最后 (N, 56*56, 96) - if self.norm is not None: - x = self.norm(x) - return x -``` - -## Patch Merging - -该模块的作用是在每个 Stage 开始前做降采样,用于缩小分辨率,调整通道数进而形成层次化的设计,同时也能节省一定运算量。 - -> 在 CNN 中,则是在每个 Stage 开始前用`stride=2`的卷积/池化层来降低分辨率。 - -每次降采样是两倍,因此**在行方向和列方向上,间隔 2 选取元素**。 - -然后拼接在一起作为一整个张量,最后展开。**此时通道维度会变成原先的 4 倍**(因为 H,W 各缩小 2 倍),此时再通过一个**全连接层再调整通道维度为原来的两倍**。 - -下面是一个示意图(输入张量 N=1, H=W=8, C=1,不包含最后的全连接层调整) - -![Patch_Merging](./figures/Patch_Merging.png) - -![Patch_Merging_dim](./figures/Patch_Merging_dim.png) - -```python -class PatchMerging(nn.Module): - def __init__(self, input_resolution, dim, norm_layer=nn.LayerNorm): - super().__init__() - self.input_resolution = input_resolution - self.dim = dim - self.reduction = nn.Linear(4 * dim, 2 * dim, bias=False) - self.norm = norm_layer(4 * dim) - - def forward(self, x): - """ - x: B, H*W, C - """ - H, W = self.input_resolution - B, L, C = x.shape - assert L == H * W, "input feature has wrong size" - assert H % 2 == 0 and W % 2 == 0, f"x size ({H}*{W}) are not even." - - x = x.view(B, H, W, C) - - x0 = x[:, 0::2, 0::2, :] # B H/2 W/2 C - x1 = x[:, 1::2, 0::2, :] # B H/2 W/2 C - x2 = x[:, 0::2, 1::2, :] # B H/2 W/2 C - x3 = x[:, 1::2, 1::2, :] # B H/2 W/2 C - x = torch.cat([x0, x1, x2, x3], -1) # B H/2 W/2 4*C - x = x.view(B, -1, 4 * C) # B H/2*W/2 4*C - - x = self.norm(x) - x = self.reduction(x) - - return x -``` - -## Window Partition/Reverse - -`window partition`函数是用于对张量划分窗口,指定窗口大小。将原本的张量从 `N H W C`, 划分成 `num_windows*B, window_size, window_size, C`,其中 `num_windows = H*W / window_size*window_size`,即窗口的个数。而`window reverse`函数则是对应的逆过程。这两个函数会在后面的`Window Attention`用到。 - -![Window_Partition_Reverse](./figures/Window_Partition_Reverse.png) - -```python -def window_partition(x, window_size): - B, H, W, C = x.shape - x = x.view(B, H // window_size, window_size, W // window_size, window_size, C) - windows = x.permute(0, 1, 3, 2, 4, 5).contiguous().view(-1, window_size, window_size, C) - return windows - -def window_reverse(windows, window_size, H, W): - B = int(windows.shape[0] / (H * W / window_size / window_size)) - x = windows.view(B, H // window_size, W // window_size, window_size, window_size, -1) - x = x.permute(0, 1, 3, 2, 4, 5).contiguous().view(B, H, W, -1) - return x -``` - -## Window Attention - -传统的 Transformer 都是**基于全局来计算注意力的**,因此计算复杂度十分高。而 Swin Transformer 则将**注意力的计算限制在每个窗口内**,进而减少了计算量。我们先简单看下公式 - -$$ -Attention(Q,K,V)=Softmax(\frac{{QK}^T}{\sqrt d}+B)V -$$ -主要区别是在原始计算 Attention 的公式中的 Q,K 时**加入了相对位置编码**。 - -Swin-T_block - -```python -class WindowAttention(nn.Module): - r""" Window based multi-head self attention (W-MSA) module with relative position bias. - It supports both of shifted and non-shifted window. - - Args: - dim (int): Number of input channels. - window_size (tuple[int]): The height and width of the window. - num_heads (int): Number of attention heads. - qkv_bias (bool, optional): If True, add a learnable bias to query, key, value. Default: True - qk_scale (float | None, optional): Override default qk scale of head_dim ** -0.5 if set - attn_drop (float, optional): Dropout ratio of attention weight. Default: 0.0 - proj_drop (float, optional): Dropout ratio of output. Default: 0.0 - """ - - def __init__(self, dim, window_size, num_heads, qkv_bias=True, qk_scale=None, attn_drop=0., proj_drop=0.): - - super().__init__() - self.dim = dim - self.window_size = window_size # Wh, Ww - self.num_heads = num_heads # nH - head_dim = dim // num_heads # 每个注意力头对应的通道数 - self.scale = qk_scale or head_dim ** -0.5 - - # define a parameter table of relative position bias - self.relative_position_bias_table = nn.Parameter( - torch.zeros((2 * window_size[0] - 1) * (2 * window_size[1] - 1), num_heads)) # 设置一个形状为(2*(Wh-1) * 2*(Ww-1), nH)的可学习变量,用于后续的位置编码 - - self.qkv = nn.Linear(dim, dim * 3, bias=qkv_bias) - self.attn_drop = nn.Dropout(attn_drop) - self.proj = nn.Linear(dim, dim) - self.proj_drop = nn.Dropout(proj_drop) - - trunc_normal_(self.relative_position_bias_table, std=.02) - self.softmax = nn.Softmax(dim=-1) - # 相关位置编码... -``` - -### 相关位置编码的直观理解 - -> Q,K,V.shape=[numWindwos\*B, num_heads, window_size\*window_size, head_dim] -> -> - window_size*window_size 即 NLP 中`token`的个数 -> - $head\_dim=\frac{Embedding\_dim}{num\_heads}$ 即 NLP 中`token`的词嵌入向量的维度 -> -> ${QK}^T$计算出来的`Attention`张量的形状为`[numWindows*B, num_heads, Q_tokens, K_tokens]` -> -> - 其中Q_tokens=K_tokens=window_size*window_size - -以`window_size=2`为例: - -绝对位置索引 - -因此:${QK}^T=\left[\begin{array}{cccc}a_{11} & a_{12} & a_{13} & a_{14} \\ a_{21} & a_{22} & a_{23} & a_{24} \\ a_{31} & a_{32} & a_{33} & a_{34} \\ a_{41} & a_{42} & a_{43} & a_{44}\end{array}\right]$ - -- **第 $i$ 行表示第 $i$ 个 token 的`query`对所有token的`key`的attention。** -- 对于 Attention 张量来说,**以不同元素为原点,其他元素的坐标也是不同的**, - -相对位置索引 - -所以${QK}^T的相对位置索引=\left[\begin{array}{cccc}(0,0) & (0,-1) & (-1,0) & (-1,-1) \\ (0,1) & (0,0) & (-1,1) & (-1,0) \\ (1,0) & (1,-1) & (0,0) & (0,-1) \\ (1,1) & (1,0) & (0,1) & (0,0)\end{array}\right]$ - -由于最终我们希望使用一维的位置坐标 `x+y` 代替二维的位置坐标` (x,y)`,为了避免 (1,2) (2,1) 两个坐标转为一维时均为3,我们之后对相对位置索引进行了一些**线性变换**,使得能通过**一维**的位置坐标**唯一映射**到一个**二维**的位置坐标,详细可以通过代码部分进行理解。 - -### 相关位置编码的代码详解 - -首先我们利用`torch.arange`和`torch.meshgrid`函数生成对应的坐标,这里我们以`windowsize=2`为例子 - -```python -coords_h = torch.arange(self.window_size[0]) -coords_w = torch.arange(self.window_size[1]) -coords = torch.meshgrid([coords_h, coords_w]) # -> 2*(wh, ww) -""" - (tensor([[0, 0], - [1, 1]]), - tensor([[0, 1], - [0, 1]])) -""" -``` - -然后堆叠起来,展开为一个二维向量 - -```python -coords = torch.stack(coords) # 2, Wh, Ww -coords_flatten = torch.flatten(coords, 1) # 2, Wh*Ww -""" -tensor([[0, 0, 1, 1], - [0, 1, 0, 1]]) -""" -``` - -利用广播机制,分别在第一维,第二维,插入一个维度,进行广播相减,得到 `2, wh*ww, wh*ww`的张量 - -```python -relative_coords_first = coords_flatten[:, :, None] # 2, wh*ww, 1 -relative_coords_second = coords_flatten[:, None, :] # 2, 1, wh*ww -relative_coords = relative_coords_first - relative_coords_second # 最终得到 2, wh*ww, wh*ww 形状的张量 -``` - -![relative_pos_code](./figures/relative_pos_code.png) - -因为采取的是相减,所以得到的索引是从负数开始的,**我们加上偏移量,让其从 0 开始**。 - -```python -relative_coords = relative_coords.permute(1, 2, 0).contiguous() # Wh*Ww, Wh*Ww, 2 -relative_coords[:, :, 0] += self.window_size[0] - 1 -relative_coords[:, :, 1] += self.window_size[1] - 1 -``` - -后续我们需要将其展开成一维偏移量。而对于 (1,2)和(2,1)这两个坐标。在二维上是不同的,**但是通过将 x,y 坐标相加转换为一维偏移的时候,他的偏移量是相等的**。 - -![bias0](./figures/bias0.png) - -所以最后我们对其中做了个乘法操作,以进行区分 - -```python -relative_coords[:, :, 0] *= 2 * self.window_size[1] - 1 -``` - -![offset multiply](./figures/coords.png) - -然后再最后一维上进行求和,展开成一个一维坐标,并注册为一个不参与网络学习的变量 - -```python -relative_position_index = relative_coords.sum(-1) # Wh*Ww, Wh*Ww -self.register_buffer("relative_position_index", relative_position_index) -``` - -之前计算的是相对位置索引,并不是相对位置偏置参数。真正使用到的可训练参数$\hat B$是保存在`relative position bias table`表里的,这个表的长度是等于 **(2M−1) × (2M−1)** (在二维位置坐标中线性变化乘以2M-1导致)的。那么上述公式中的相对位置偏执参数B是根据上面的相对位置索引表根据查`relative position bias table`表得到的。 - -relative_pos_bias_table - -接着我们看前向代码 - -```python -def forward(self, x, mask=None): - """ - Args: - x: input features with shape of (num_windows*B, N, C) - mask: (0/-inf) mask with shape of (num_windows, Wh*Ww, Wh*Ww) or None - """ - B_, N, C = x.shape - - qkv = self.qkv(x).reshape(B_, N, 3, self.num_heads, C // self.num_heads).permute(2, 0, 3, 1, 4) - q, k, v = qkv[0], qkv[1], qkv[2] # make torchscript happy (cannot use tensor as tuple) - - q = q * self.scale - attn = (q @ k.transpose(-2, -1)) - - relative_position_bias = self.relative_position_bias_table[self.relative_position_index.view(-1)].view(self.window_size[0] * self.window_size[1], self.window_size[0] * self.window_size[1], -1) # Wh*Ww,Wh*Ww,nH - relative_position_bias = relative_position_bias.permute(2, 0, 1).contiguous() # nH, Wh*Ww, Wh*Ww - attn = attn + relative_position_bias.unsqueeze(0) # (1, num_heads, windowsize, windowsize) - - if mask is not None: # 下文会分析到 - ... - else: - attn = self.softmax(attn) - - attn = self.attn_drop(attn) - - x = (attn @ v).transpose(1, 2).reshape(B_, N, C) - x = self.proj(x) - x = self.proj_drop(x) - return x -``` - -- 首先输入张量形状为 `[numWindows*B, window_size * window_size, C]` -- 然后经过`self.qkv`这个全连接层后,进行 reshape,调整轴的顺序,得到形状为`[3, numWindows*B, num_heads, window_size*window_size, c//num_heads]`,并分配给`q,k,v`。 -- 根据公式,我们对`q`乘以一个`scale`缩放系数,然后与`k`(为了满足矩阵乘要求,需要将最后两个维度调换)进行相乘。得到形状为`[numWindows*B, num_heads, window_size*window_size, window_size*window_size]`的`attn`张量 -- 之前我们针对位置编码设置了个形状为`(2*window_size-1*2*window_size-1, numHeads)`的可学习变量。我们用计算得到的相对编码位置索引`self.relative_position_index.vew(-1)`选取,得到形状为`(window_size*window_size, window_size*window_size, numHeads)`的编码,再permute(2,0,1)后加到`attn`张量上 -- 暂不考虑 mask 的情况,剩下就是跟 transformer 一样的 softmax,dropout,与`V`矩阵乘,再经过一层全连接层和 dropout - -## Shifted Window Attention - -前面的 Window Attention 是在每个窗口下计算注意力的,为了更好的和其他 window 进行信息交互,Swin Transformer 还引入了 shifted window 操作。 - -Shifted_Window - -左边是没有重叠的 Window Attention,而右边则是将窗口进行移位的 Shift Window Attention。可以看到移位后的窗口包含了原本相邻窗口的元素。但这也引入了一个新问题,即 **window 的个数翻倍了**,由原本四个窗口变成了 9 个窗口。在实际代码里,我们是**通过对特征图移位,并给 Attention 设置 mask 来间接实现的**。能在**保持原有的 window 个数下**,最后的计算结果等价。 - -

W-MSA

- -### 特征图移位操作 - -代码里对特征图移位是通过`torch.roll`来实现的,下面是示意图 - -torch_roll - -> 如果需要`reverse cyclic shift`的话只需把参数`shifts`设置为对应的正数值。 - -### Attention Mask - -这是 Swin Transformer 的精华,通过设置合理的 mask,让`Shifted Window Attention`在与`Window Attention`相同的窗口个数下,达到等价的计算结果。 - -首先我们对 Shift Window 后的每个窗口都给上 index,并且做一个`roll`操作(window_size=2, shift_size=1) - -Shift window index - - - -我们希望在计算 Attention 的时候,**让具有相同 index QK 进行计算,而忽略不同 index QK 计算结果**。最后正确的结果如下图所示 - -Mask - -而要想在原始四个窗口下得到正确的结果,我们就必须给 Attention 的结果加入一个 mask(如上图最右边所示)相关代码如下: - -```python -if self.shift_size > 0: - # calculate attention mask for SW-MSA - H, W = self.input_resolution - img_mask = torch.zeros((1, H, W, 1)) # 1 H W 1 - h_slices = (slice(0, -self.window_size), - slice(-self.window_size, -self.shift_size), - slice(-self.shift_size, None)) - w_slices = (slice(0, -self.window_size), - slice(-self.window_size, -self.shift_size), - slice(-self.shift_size, None)) - cnt = 0 - for h in h_slices: - for w in w_slices: - img_mask[:, h, w, :] = cnt - cnt += 1 - - mask_windows = window_partition(img_mask, self.window_size) # nW, window_size, window_size, 1 - mask_windows = mask_windows.view(-1, self.window_size * self.window_size) - attn_mask = mask_windows.unsqueeze(1) - mask_windows.unsqueeze(2) - attn_mask = attn_mask.masked_fill(attn_mask != 0, float(-100.0)).masked_fill(attn_mask == 0, float(0.0)) -else: - attn_mask = None -``` - -以上图的设置,我们用这段代码会得到这样的一个 mask - -``` -tensor([[[[[ 0., 0., 0., 0.], - [ 0., 0., 0., 0.], - [ 0., 0., 0., 0.], - [ 0., 0., 0., 0.]]], - - - [[[ 0., -100., 0., -100.], - [-100., 0., -100., 0.], - [ 0., -100., 0., -100.], - [-100., 0., -100., 0.]]], - - - [[[ 0., 0., -100., -100.], - [ 0., 0., -100., -100.], - [-100., -100., 0., 0.], - [-100., -100., 0., 0.]]], - - - [[[ 0., -100., -100., -100.], - [-100., 0., -100., -100.], - [-100., -100., 0., -100.], - [-100., -100., -100., 0.]]]]]) -``` - -在之前的 window attention 模块的前向代码里,包含这么一段 - -```python -if mask is not None: - nW = mask.shape[0] # 一张图被分为多少个windows eg:[4,49,49] - attn = attn.view(B_ // nW, nW, self.num_heads, N, N) + mask.unsqueeze(1).unsqueeze(0) # torch.Size([128, 4, 12, 49, 49]) torch.Size([1, 4, 1, 49, 49]) - attn = attn.view(-1, self.num_heads, N, N) - attn = self.softmax(attn) -else: - attn = self.softmax(attn) -``` - -将 mask 加到 attention 的计算结果,并进行 softmax。mask 的值设置为 - 100,softmax 后就会忽略掉对应的值。关于Mask,我们发现在官方代码库中的issue38也进行了讨论:-->[The Question about the mask of window attention #38](https://github.com/microsoft/Swin-Transformer/issues/38#issuecomment-823806591) - -## W-MSA和MSA的复杂度对比 - -在原论文中,作者提出的基于**滑动窗口操作**的 `W-MSA` 能大幅度减少计算量。那么两者的计算量和算法复杂度大概是如何的呢,论文中给出了一下两个公式进行对比。 -$$ -\begin{aligned} -&\Omega(M S A)=4 h w C^{2}+2(h w)^{2} C \\ -&\Omega(W-M S A)=4 h w C^{2}+2 M^{2} h w C -\end{aligned} -$$ - -- **h**:feature map的高度 -- **w**:feature map的宽度 -- **C**:feature map的通道数(也可以称为embedding size的大小) -- **M**:window_size的大小 - -### MSA模块的计算量 - -首先对于`feature map`中每一个`token`(一共有 $hw$ 个token,通道数为C),记作$X^{h w \times C}$,需要通过三次线性变换 $W_q,W_k,W_v$ ,产生对应的`q,k,v`向量,记作 $Q^{h w \times C},K^{h w \times C},V^{h w \times C}$ (通道数为C)。 -$$ -X^{h w \times C} \cdot W_{q}^{C \times C}=Q^{h w \times C} \\ -X^{h w \times C} \cdot W_{k}^{C \times C}=K^{h w \times C} \\ -X^{h w \times C} \cdot W_{v}^{C \times C}=V^{h w \times C} \\ -$$ -根据矩阵运算的计算量公式可以得到运算量为 $3hwC \times C$ ,即为 $3hwC^2$ 。 -$$ -Q^{h w \times C} \cdot K^T=A^{h w \times hw} \\ -\Lambda^{h w \times h w}=Softmax(\frac{A^{h w \times hw}}{\sqrt(d)}+B) \\ -\Lambda^{h w \times h w} \cdot V^{h w \times C}=Y^{h w \times C} -$$ -忽略除以$\sqrt d$ 以及softmax的计算量,根据根据矩阵运算的计算量公式可得 $hwC \times hw + hw^2 \times C$ ,即为 $2(hw^2)C$ 。 -$$ -Y^{h w \times C} \cdot W_O^{C \times C}=O^{h w \times C} -$$ -最终再通过一个Linear层输出,计算量为 $hwC^2$ 。因此整体的计算量为 $4 h w C^{2}+2(h w)^{2} C$​ 。 - -### W-MSA模块的计算量 - -对于W-MSA模块,首先会将`feature map`根据`window_size`分成 $\frac{hw}{M^2}$ 的窗口,每个窗口的宽高均为$M$,然后在每个窗口进行MSA的运算。因此,可以利用上面MSA的计算量公式,将 $h=M,w=M$ 带入,可以得到一个窗口的计算量为 $4 M^2 C^{2}+2M^{4} C$ 。 - -又因为有 $\frac{hw}{M^2}$ 个窗口,则: -$$ -\frac{hw}{M^2} \times\left(4M^2 C^2+2M^{4} C\right)=4 h w C^{2}+2 M^{2} h w C -$$ -假设`feature map`的$h=w=112,M=7,C=128$,采用W-MSA模块会比MSA模块节省约40124743680 FLOPs: -$$ -2(h w)^{2} C-2 M^{2} h w C=2 \times 112^{4} \times 128-2 \times 7^{2} \times 112^{2} \times 128=40124743680 -$$ - -## 整体流程图 - -

Swin-T

- -

Network

- -![Hyper_parameters](./figures/Hyper_parameters.png) - -> 参考博客: -> -> https://zhuanlan.zhihu.com/p/367111046 - -> 联系方式: -> -> - 个人知乎:https://www.zhihu.com/people/shenhao-63 -> -> - Github:https://github.com/shenhao-stu - diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/Transformer \350\247\243\350\257\273.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/Transformer \350\247\243\350\257\273.md.txt" deleted file mode 100644 index df2752926..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/Transformer \350\247\243\350\257\273.md.txt" +++ /dev/null @@ -1,702 +0,0 @@ -# Transformer 解读 - -

-[Transformer] Attention Is All You Need -
-Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N. Gomez,Łukasz Kaiser,Illia Polosukhin. -
-NIPS 2017. -[paper] [tensorflow] [pytorch] -
-解读者:邹雨衡,对外经济贸易大学本科生,牛志康,西安电子科技大学本科生 -
-

- -## 前言 - -​Attention (注意力)机制及其变体已经成为自然语言处理任务的一种基本网络架构,甚至在一定程度上取代了 RNN (循环神经网络)的主流地位,2018年取得了自然语言处理多项任务效果大幅提升的 BERT 模型便是基于 attention 机制搭建。但自2014年 attention 机制被提出至2017年,虽然被广泛应用到深度学习的各领域中,attention 机制更多的是作为 CNN(卷积神经网络)、RNN 的组件存在,自然语言处理的各种任务仍然是以 RNN 及其变体如 LSTM(长短期记忆递归神经网络)为主。 - -​但是 RNN、LSTM 虽然在处理自然语言处理的序列建模任务中得天独厚,却也有着难以忽视的缺陷: - -​1. RNN 为单向依序计算,序列需要依次输入、串行计算,限制了计算机的并行计算能力,导致时间成本过高。 - -​2. RNN 难以捕捉长期依赖问题,即对于极长序列,RNN 难以捕捉远距离输入之间的关系。虽然 LSTM 通过门机制对此进行了一定优化,但 RNN 对长期依赖问题的捕捉能力依旧是不如人意的。 - -​针对上述两个问题,2017年,Vaswani 等人发表了论文《Attention Is All You Need》,抛弃了传统的 CNN、RNN 架构,提出了一种全新的完全基于 attention 机制的模型——Transformer,解决了上述问题,在较小的时间成本下取得了多个任务的 the-state-of-art 效果,并为自然语言处理任务提供了新的思路。自此,attention 机制进入自然语言处理任务的主流架构,众多性能卓越的预训练模型都基于 Transformer 架构提出,例如 BERT、OpenAI GPT 等。 - -​本文将从模型原理及代码实现上讲解该模型,并着重介绍代码实现。需要注意的是,由于 Transformer 源代码使用 TensorFlow 搭建,此处选择了哈佛大学 harvardnlp 团队基于 Pytorch 框架开发的 [Annotated Transformer](https://github.com/harvardnlp/annotated-transformer) 代码进行讲解,以帮助大家了解 Transformer 的实现细节。 - -## 整体架构 - -​ Transformer 是针对自然语言处理的 Seq2Seq(序列到序列)任务开发的,整体上沿用了 Seq2Seq 模型的 Encoder-Decoder(编码器-解码器)结构,整体架构如下: - -
image-20230127193646262
- -​ Transformer 由一个 Encoder,一个 Decoder 外加一个 Softmax 分类器与两层编码层构成。上图中左侧方框为 Encoder,右侧方框为 Decoder。 - -​ 由于是一个 Seq2Seq 任务,在训练时,Transformer 的训练语料为若干个句对,具体子任务可以是机器翻译、阅读理解、机器对话等。在原论文中是训练了一个英语与德语的机器翻译任务。在训练时,句对会被划分为输入语料和输出语料,输入语料将从左侧通过编码层进入 Encoder,输出语料将从右侧通过编码层进入 Decoder。Encoder 的主要任务是对输入语料进行编码再输出给 Decoder,Decoder 再根据输出语料的历史信息与 Encoder 的输出进行计算,输出结果再经过一个线性层和 Softmax 分类器即可输出预测的结果概率,整体逻辑如下图: - -
image-20230127193646262
- -​ 模型整体实现为一个 Encoder-Decoder架构: - -```python -class EncoderDecoder(nn.Module): - """ - A standard Encoder-Decoder architecture. Base for this and many - other models. - """ - - def __init__(self, encoder, decoder, src_embed, tgt_embed, generator): - super(EncoderDecoder, self).__init__() - self.encoder = encoder - # 编码器 - self.decoder = decoder - # 解码器 - self.src_embed = src_embed - # 输入语料的编码函数 - self.tgt_embed = tgt_embed - # 输出语料的编码函数 - self.generator = generator - # 线性层+softmax分类层,输出分类概率,即架构图中的最高层 - - def forward(self, src, tgt, src_mask, tgt_mask): - # 前向计算函数 - "Take in and process masked src and target sequences." - return self.decode(self.encode(src, src_mask), src_mask, tgt, tgt_mask) - - def encode(self, src, src_mask): - # src 为输入语料 - # src_mask 为输入语料的遮蔽符号 - return self.encoder(self.src_embed(src), src_mask) - # 先编码输入语料,再和遮蔽符号一起传入编码器中 - - def decode(self, memory, src_mask, tgt, tgt_mask): - return self.decoder(self.tgt_embed(tgt), memory, src_mask, tgt_mask) - # 解码函数类似编码函数,memory为记忆,其实就是编码器的输出 -``` - -​ 在该代码中实现的前向计算函数即先通过 Encoder 编码,再输出给 Decoder 解码。最终的线性分类并未在该类中实现。 - -​ 接下来将逐个介绍 Transformer 的实现细节和原理。 - -## Attention - -​Attention 机制是 Transformer 的核心之一,要详细介绍Attention 机制的思想与操作需要较多的篇幅与笔墨,此处我们仅简要概述 attention 机制的思想和大致计算方法,更多细节请大家具体查阅相关资料,例如:[Understanding Attention In Deep Learning (NLP)](https://towardsdatascience.com/attaining-attention-in-deep-learning-a712f93bdb1e)、[Attention? Attention!](https://lilianweng.github.io/posts/2018-06-24-attention/)等。在下文中,我们将从何为Attention、self-attention 和 Multi-Head attention 三个方面逐步介绍 Transformer 中使用的Attention 机制。 - -### 何为 Attention - -​Attention 机制最先源于计算机视觉领域,其核心思想为当我们关注一张图片,我们往往无需看清楚全部内容而仅将注意力集中在重点部分即可。而在自然语言处理领域,我们往往也可以通过将重点注意力集中在一个或几个 token,从而取得更高效高质的计算效果。 - -​Attention 机制的特点是通过计算 **Query** (查询值)与**Key**(键值)的相关性为真值加权求和,从而拟合序列中每个词同其他词的相关关系。其大致计算过程为: - -
image-20230129185638102
- -1. 通过输入与参数矩阵,得到查询值$q$,键值$k$,真值$v$。可以理解为,$q$ 是计算注意力的另一个句子(或词组),$v$ 为待计算句子,$k$ 为待计算句子中每个词(即 $v$ 的每个词)的对应键。其中,$v$ 与 $k$ 的矩阵维度是相同的,$q$的矩阵维度则可以不同,只需要满足 $q$ 能和$k^T$满足矩阵相乘的条件即可。 -2. 对 $q$ 的每个元素 $q_i$ ,对 $q_i$ 与 $k$ 做点积并进行 softmax,得到一组向量,该向量揭示了 $q_i$ 对整个句子每一个位置的注意力大小。 -3. 以上一步输出向量作为权重,对 $v$ 进行加权求和,将 $q$ 的所有元素得到的加权求和结果拼接得到最后输出。 - -​其中,q,k,v 分别是由输入与三个参数矩阵做积得到的: - -
image-20230129185638102
- -​在实际训练过程中,为提高并行计算速度,直接使用 $q$、$k$、$v$ 拼接而成的矩阵进行一次计算即可。 - -​具体到 Transformer 模型中,计算公式如下: -$$ -Attention(Q,K,V) = softmax(\frac{QK^T}{\sqrt{d_k}})V -$$ -​其中,$d_k$ 为键向量$k$的维度,除以根号$d_k$主要作用是在训练过程中获得一个稳定的梯度。计算示例如下图: - -
image-20230129185638102
- -​ Attention 机制的基本实现代码如下: - -```python -def attention(query, key, value, mask=None, dropout=None): - "Compute 'Scaled Dot Product Attention'" - d_k = query.size(-1) # 获取键向量的维度,键向量的维度和值向量的维度相同 - scores = torch.matmul(query, key.transpose(-2, -1)) / math.sqrt(d_k) - # 计算Q与K的内积并除以根号dk - # 为什么使用transpose——内积的计算过程 - if mask is not None: - scores = scores.masked_fill(mask == 0, -1e9) - # masker_fill为遮蔽,即基于一个布尔值的参数矩阵对矩阵进行遮蔽 - # 此处同上面的subsequent_mask函数结合,此处的mask即为该函数的输出 - p_attn = scores.softmax(dim=-1) - if dropout is not None: - p_attn = dropout(p_attn) - # 采样 - return torch.matmul(p_attn, value), p_attn - # 根据计算结果对value进行加权求和 -``` - -### Self-Attention - -​从上对 Attention 机制原理的叙述中我们可以发现,Attention 机制的本质是对两段序列的元素依次进行相似度计算,寻找出一个序列的每个元素对另一个序列的每个元素的相关度,然后基于相关度进行加权,即分配注意力。而这两段序列即是我们计算过程中 $Q$、$K$、$V$ 的来源。 - -​在经典的 Attention 机制中,$Q$ 往往来自于一个序列,$K$ 与 $V$ 来自于另一个序列,都通过参数矩阵计算得到,从而可以拟合这两个序列之间的关系。例如在 Transformer 的 Decoder 结构中,$Q$ 来自于 Encoder 的输出,$K$ 与 $V$ 来自于 Decoder 的输入,从而拟合了编码信息与历史信息之间的关系,便于综合这两种信息实现未来的预测。 - -​但在 Transformer 的 Encoder 结构中,使用的是 Attention 机制的变种—— self-attention (自注意力)机制。所谓自注意力,即是计算本身序列中每个元素都其他元素的注意力分布,即在计算过程中,$Q$、$K$、$V$ 都由同一个输入通过不同的参数矩阵计算得到。在 Encoder 中,$Q$、$K$、$V$ 分别是输入对参数矩阵 $W_q$、$W_k$、$W_v$ 做积得到,从而拟合输入语句中每一个 token 对其他所有 token 的关系。 - -​例如,通过 Encoder 中的 self-attention 层,可以拟合下面语句中 it 对其他 token 的注意力分布如图: - -
image-20230129190819407
- -​在代码中的实现,self-attention 机制其实是通过给 $Q$、$K$、$V$ 的输入传入同一个参数实现的: - -```python -x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, mask)) -# 传入自注意力层作为sublayer,输出自注意力层计算并进行残差连接后的结果 -``` - -​上述代码是 Encoder 层的部分实现,self_attn 即是注意力层,传入的三个参数都是 $x$,分别是 $Q$、$K$、$V$ 的计算输入,从而 $Q$、$K$、$$ 均来源于同一个输入,则实现了自注意力的拟合。 - -### Multi-Head Attention - -​Attention 机制可以实现并行化与长期依赖关系拟合,但一次注意力计算只能拟合一种相关关系,单一的 Attention 机制很难全面拟合语句序列里的相关关系。因此 Transformer 使用了 Multi-Head attention 机制,即同时对一个语料进行多次注意力计算,每次注意力计算都能拟合不同的关系,将最后的多次结果拼接起来作为最后的输出,即可更全面深入地拟合语言信息。 - -
image-20230129190819407
- -​ 在原论文中,作者也通过实验证实,多头注意力计算中,每个不同的注意力头能够拟合语句中的不同信息,如下图: - -
image-20230207203454545
- -​上层与下层分别是两个注意力头对同一段语句序列进行自注意力计算的结果,可以看到,对于不同的注意力头,能够拟合不同层次的相关信息。通过多个注意力头同时计算,能够更全面地拟合语句关系。 - -​Multi-Head attention 的整体计算流程如下: - -
image-20230129190819407
- -所谓的多头注意力机制其实就是将原始的输入序列进行多组的自注意力处理;然后再将每一组得到的自注意力结果拼接起来,再通过一个线性层进行处理,得到最终的输出。我们用公式可以表示为: -$$ -\mathrm{MultiHead}(Q, K, V) = \mathrm{Concat}(\mathrm{head_1}, ..., -\mathrm{head_h})W^O \\ - \text{where}~\mathrm{head_i} = \mathrm{Attention}(QW^Q_i, KW^K_i, VW^V_i) -$$ - -​其代码实现相对复杂,通过矩阵操作实现并行的多头计算,整体计算流程如下: - -```python -class MultiHeadedAttention(nn.Module): - # 多头注意力操作 - def __init__(self, h, d_model, dropout=0.1): - "Take in model size and number of heads." - super(MultiHeadedAttention, self).__init__() - assert d_model % h == 0 - # 断言,控制h总是整除于d_model,如果输入参数不满足将报错 - # We assume d_v always equals d_k - self.d_k = d_model // h - # key的长度 - self.h = h - # 头数 - self.linears = clones(nn.Linear(d_model, d_model), 4) - self.attn = None - self.dropout = nn.Dropout(p=dropout) - - def forward(self, query, key, value, mask=None): - "Implements Figure 2" - if mask is not None: - # Same mask applied to all h heads. - mask = mask.unsqueeze(1) - nbatches = query.size(0) - - # 1) Do all the linear projections in batch from d_model => h x d_k - query, key, value = [ - lin(x).view(nbatches, -1, self.h, self.d_k).transpose(1, 2) - for lin, x in zip(self.linears, (query, key, value)) - ] - - # 2) Apply attention on all the projected vectors in batch. - x, self.attn = attention( - query, key, value, mask=mask, dropout=self.dropout - ) - # x 为加权求和结果,attn为计算的注意力分数 - - # 3) "Concat" using a view and apply a final linear. - x = ( - x.transpose(1, 2) - .contiguous() - .view(nbatches, -1, self.h * self.d_k) - ) - - del query - del key - del value - return self.linears[-1](x) -``` - -​在 Pytorch 中,其实提供了 Multi-Head Attention 机制的 API,可以通过下列代码直接构造并使用一个多头注意力层: - -```python -multihead_attn = nn.MultiheadAttention(embed_dim , num_heads) -# 构造一个多头注意力层 -# embed_dim :输出词向量长度;num_heads :头数 -# 可选参数: -# drop_out: 在采样层中drop_out的概率,默认为0;bias:线性层是否计算偏置 -# add_bias_kv:是否将偏置添加到 K 和 V 中;add_zero_attn:是否为 K 和 V 再添加一串为0的序列 -# kdim:K 的总共feature数;vdim:V 的总共feature数;batch_first:是否将输入调整为(batch,seq,feature) -attn_output, attn_output_weights = multihead_attn(query, key, value) -# 前向计算 -# 输出: -# attn_output:形如(L,N,E)的计算结果,L为目标序列长度,N为批次大小,E为embed_dim -# attn_output_weights:注意力计算分数,仅当need_weights=True时返回 -# query、key、value 分别是注意力计算的三个输入矩阵 -``` - -## Encoder - -
image-20230129182417098
- -​如图所示,Encoder 由 N 个(论文中取 N = 6)EncoderLayer 组成,每个 EncoderLayer 又由两个 sublayer (子层)组成。在下文的代码中,每一个 layer 是一个 EncoderLayer,代码在最后又额外加入了一个标准化层进行标准化操作: - -```python -class Encoder(nn.Module): - "Core encoder is a stack of N layers" - # 编码器其实是由N层自注意力层+标准化层构成的 - - def __init__(self, layer, N): - super(Encoder, self).__init__() - self.layers = clones(layer, N) - # clones 函数为作者定义的,实现将 layer 层复制 N 次的功能 - self.norm = LayerNorm(layer.size) - # 标准化层,参数为特征数 - - def forward(self, x, mask): - "Pass the input (and mask) through each layer in turn." - for layer in self.layers: - x = layer(x, mask) - return self.norm(x) -``` - -​1. 第一部分为一个多头自注意力层。Transformer 的最大特点即是抛弃了传统的 CNN、RNN 架构,完全使用 attention 机制搭建。在 EncoderLayer 中,使用了 Multi-Head self-attention(多头自注意力)层,编码输入语料的相关关系。通过 attention 机制,实现了模型的并行化与长期依赖关系的拟合。关于 Multi-Head self-attention 将在之后的板块详述其特点与实现。在通过一个多头自注意力层后,输出经过标准化层进入下一个 sublayer。 - -```python -class EncoderLayer(nn.Module): - "Encoder is made up of self-attn and feed forward (defined below)" - - def __init__(self, size, self_attn, feed_forward, dropout): - super(EncoderLayer, self).__init__() - self.self_attn = self_attn - # 自注意力层 - self.feed_forward = feed_forward - # 前馈神经网络层 - self.sublayer = clones(SublayerConnection(size, dropout), 2) - # 残差连接层,将在之后定义 - # 两层分别用于连接自注意力层和前馈神经网络层 - self.size = size - - def forward(self, x, mask): - "Follow Figure 1 (left) for connections." - x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, mask)) - # 传入自注意力层作为sublayer,输出自注意力层计算并进行残差连接后的结果 - return self.sublayer[1](x, self.feed_forward) -``` - -​2. 第二部分为一个全连接神经网络,论文中称为“position-wise fully connected feed-forward network”,实际是一个线性层+激活函数+ dropout + 线性层的全连接网络。 - -```python -class PositionwiseFeedForward(nn.Module): - # 即架构图中的FeedForward - - def __init__(self, d_model, d_ff, dropout=0.1): - super(PositionwiseFeedForward, self).__init__() - self.w_1 = nn.Linear(d_model, d_ff) - self.w_2 = nn.Linear(d_ff, d_model) - self.dropout = nn.Dropout(dropout) - - def forward(self, x): - return self.w_2(self.dropout(self.w_1(x).relu())) - # 实则是一个线性层+激活函数+采样+一个线性层 -``` - -## Decoder - -
image-20230129183826948
- -​Decoder 与 Encoder 的组成非常类似,同样是由N个DecoderLayer组成,DecoderLayer 与 EncoderLayer 的区别在于: - -​1. EncoderLayer由两个sublayer组成,分别是一个多头自注意力层与一个全连接网络层。DecoderLayer 则在 EncoderLayer 的两个 sublayer 的基础上增加了一个带掩码的多头注意力层。如图,最下方的多头自注意力层同 EncoderLayer结构相同,中间则是增加的一个多头注意力层,将使用 Encoder 的输出和下方多头自注意力层的输出作为输入进行注意力计算。最上方的全连接网络也同 EncoderLayer 相同。 - -​2. EncoderLayer 的输入仅来自于编码之后的输入语料(或上一个 EncoderLayer 的输出),DecoderLayer 的输入除来自于编码之后的输出语料外,还包括 Encoder 的输出。 - -​DecoderLayer 的实现如下代码: - -```python -class DecoderLayer(nn.Module): - "Decoder is made of self-attn, src-attn, and feed forward (defined below)" - - def __init__(self, size, self_attn, src_attn, feed_forward, dropout): - super(DecoderLayer, self).__init__() - self.size = size - self.self_attn = self_attn - self.src_attn = src_attn - # 语料注意力,即图中Decoder的第二个注意力网络,拟合编码器输出和上一个子层输出的注意力 - self.feed_forward = feed_forward - self.sublayer = clones(SublayerConnection(size, dropout), 3) - # 因为解码器有三个子层,所以需要三个残差连接层 - - def forward(self, x, memory, src_mask, tgt_mask): - "Follow Figure 1 (right) for connections." - m = memory - x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, tgt_mask)) - x = self.sublayer[1](x, lambda x: self.src_attn(x, m, m, src_mask)) - # 由此可见解码器中两个注意力子层的区别 - # 第一个注意力子层同编码器中相同,是自注意力层,传入的三个参数均通过输入语料x得到 - # 第二个注意力子层为注意力层,传入的三个参数分别由输入语料x与记忆(即编码器输出)m得到 - return self.sublayer[2](x, self.feed_forward) -``` - -​ 注意此处为了计算输出语料与输入语料的注意力,在前向计算时,第二个注意力子层将传入 memory,也就是 Encoder 的输出。Decoder 的整体实现同 Encoder 类似,此处就不再赘述。 - -## 残差连接 - -​为了避免模型退化,Transformer 采用了残差连接的思想来连接每一个子层。残差连接,即下一层的输入不仅是上一层的输出,还包括上一层的输入。残差连接允许最底层信息直接传到最高层,让高层专注于残差的学习。 - -​例如,在 Encoder 中,在第一个子层,输入进入多头自注意力层的同时会直接传递到该层的输出,然后该层的输出会与原输入相加,再进行标准化。在第二个子层也是一样。即: -$$ -\rm output = LayerNorm(x + Sublayer(x)) -$$ -​LayerNorm 为该层的标准化操作,Sublayer 为该子层的操作(多头注意力计算或全连接计算)。源码通过构造一个 SublayerConnection 类来实现残差连接: - -```python -class SublayerConnection(nn.Module): - """ - A residual connection followed by a layer norm. - Note for code simplicity the norm is first as opposed to last. - """ - - def __init__(self, size, dropout): - super(SublayerConnection, self).__init__() - self.norm = LayerNorm(size) - self.dropout = nn.Dropout(dropout) - # 采样层 - - def forward(self, x, sublayer): - "Apply residual connection to any sublayer with the same size." - return x + self.dropout(sublayer(self.norm(x))) - # 残差连接,在该层实现了norm和add -``` - -​回到 EncoderLayer 的定义,我们可以看到作者在该层实现了两个 SublayerConnection 对象,分别实现自注意力层到全连接层、全连接层到输出的残差连接: - -```python -class EncoderLayer(nn.Module): - "Encoder is made up of self-attn and feed forward (defined below)" - - def __init__(self, size, self_attn, feed_forward, dropout): - super(EncoderLayer, self).__init__() - self.self_attn = self_attn - self.feed_forward = feed_forward - self.sublayer = clones(SublayerConnection(size, dropout), 2) - # 残差连接层 - # 两层分别用于连接自注意力层和前馈神经网络层 - self.size = size - - def forward(self, x, mask): - "Follow Figure 1 (left) for connections." - x = self.sublayer[0](x, lambda x: self.self_attn(x, x, x, mask)) - # 传入自注意力层作为sublayer,输出自注意力层计算并进行残差连接后的结果 - return self.sublayer[1](x, self.feed_forward) -``` - -​DecoderLayer 中也同样实现了该对象,不过由于有三个 sublayer,所以实现了三个 SublayerConnection 对象。 - -## Mask - -​Transformer 是一个自回归模型,类似于语言模型,其将利用历史信息依序对输出进行预测。例如,如果语料的句对为:1. \ 我爱你 \;2. \ I like you \。则 Encoder 获取的输入将会是句 1 整体,并输出句 1 的编码信息,但 Decoder 的输入并不一开始就是句 2 整体,而是先输入起始符\,Decoder 根据\ 与 Encoder 的输出预测 I,再输入\ I,Decoder 根据输入和 Encoder 的输出预测 like。因此,自回归模型需要对输入进行 mask(遮蔽),以保证模型不会使用未来信息预测当下。 - -​关于自回归模型与自编码模型的细节,感兴趣的读者可以下来查阅更多资料,在此提供部分链接供读者参考。博客:[自回归语言模型 VS 自编码语言模型](https://zhuanlan.zhihu.com/p/163455527)、[预训练语言模型整理](https://www.cnblogs.com/sandwichnlp/p/11947627.html#预训练任务简介);论文:[基于语言模型的预训练技术研究综述](http://jcip.cipsc.org.cn/CN/abstract/abstract3187.shtml)等。 - -​因此,在 Transformer 中,我们需要建立一个 mask 函数,可以根据当下预测的时间阶段对输入语料进行 mask,被 mask 的信息就不会被模型得知,从而保证了模型只使用历史信息进行预测。mask 的实现方法如下: - -```python -def subsequent_mask(size): - "Mask out subsequent positions." - attn_shape = (1, size, size) - # 注意力语料的形状 - subsequent_mask = torch.triu(torch.ones(attn_shape), diagonal=1).type( - torch.uint8 - ) - # triu返回一个上三角矩阵,diagonal=1控制不保留主对角线 - ''' - 一个例子: - a = [[1,2,3], - [4,5,6], - [7,8,9] - ] - triu(a, diagonal=1)返回: - [[0,2,3], - [0,0,6], - [0,0,0]] - 可见通过生成这样一个上三角矩阵,再取其中为0的位置,可以实现我们所需的未来信息遮蔽 - ''' - return subsequent_mask == 0 -``` - -## 位置编码 - -​Attention 机制可以实现良好的并行计算,但同时,其注意力计算的方式也导致序列中相对位置的丢失。在 RNN、LSTM 中,输入序列会沿着语句本身的顺序被依次递归处理,因此输入序列的顺序提供了极其重要的信息,这也和自然语言的本身特性非常吻合。但从上文对 Attention 机制的分析我们可以发现,在 Attention 机制的计算过程中,对于序列中的每一个 token,其他各个位置对其来说都是平等的,即“我喜欢你”和“你喜欢我”在 Attention 机制看来是完全相同的,但无疑这是 Attention 机制存在的一个巨大问题。因此,为使用序列顺序信息,保留序列中的相对位置信息,Transformer 采用了位置编码机制,该机制也在之后被多种模型沿用。 - -​位置编码,即根据序列中 token 的相对位置对其进行编码,再将位置编码加入词向量编码中。位置编码的方式有很多,Transformer 使用了正余弦函数来进行位置编码,其编码方式为: -$$ -PE(pos, 2i) = sin(pos/10000^{2i/d_{model}})\\ -PE(pos, 2i+1) = cos(pos/10000^{2i/d_{model}}) -$$ -​上式中,pos 为 token 在句子中的位置,2i 和 2i+1 则是指示了 token 是奇数位置还是偶数位置,从上式中我们可以看出对于奇数位置的 token 和偶数位置的 token,Transformer 采用了不同的函数进行编码。我们以一个简单的例子来说明位置编码的计算过程:假如我们输入的是一个长度为 4 的句子"I like to code",我们可以得到下面的词向量矩阵$\rm x$,其中每一行代表的就是一个词向量,$\rm x_0=[0.1,0.2,0.3,0.4]$对应的就是“I”的词向量,它的pos就是为0,以此类推,第二行代表的是“like”的词向量,它的pos就是1: -$$ -\rm x = \begin{bmatrix} 0.1 & 0.2 & 0.3 & 0.4 \\ 0.2 & 0.3 & 0.4 & 0.5 \\ 0.3 & 0.4 & 0.5 & 0.6 \\ 0.4 & 0.5 & 0.6 & 0.7 \end{bmatrix} -$$ -​则经过位置编码后的词向量为: -$$ -\rm x_{PE} = \begin{bmatrix} 0.1 & 0.2 & 0.3 & 0.4 \\ 0.2 & 0.3 & 0.4 & 0.5 \\ 0.3 & 0.4 & 0.5 & 0.6 \\ 0.4 & 0.5 & 0.6 & 0.7 \end{bmatrix} + \begin{bmatrix} \sin(\frac{0}{10000^0}) & \cos(\frac{0}{10000^0}) & \sin(\frac{0}{10000^{2/4}}) & \cos(\frac{0}{10000^{2/4}}) \\ \sin(\frac{1}{10000^0}) & \cos(\frac{1}{10000^0}) & \sin(\frac{1}{10000^{2/4}}) & \cos(\frac{1}{10000^{2/4}}) \\ \sin(\frac{2}{10000^0}) & \cos(\frac{2}{10000^0}) & \sin(\frac{2}{10000^{2/4}}) & \cos(\frac{2}{10000^{2/4}}) \\ \sin(\frac{3}{10000^0}) & \cos(\frac{3}{10000^0}) & \sin(\frac{3}{10000^{2/4}}) & \cos(\frac{3}{10000^{2/4}}) \end{bmatrix} = \begin{bmatrix} 0.1 & 1.2 & 0.3 & 1.4 \\ 1.041 & 0.84 & 0.41 & 1.49 \\ 1.209 & -0.016 & 0.52 & 1.59 \\ 0.541 & -0.489 & 0.895 & 1.655 \end{bmatrix} -$$ -我们可以使用如下的代码来获取上述例子的位置编码: -```python -import numpy as np -import matplotlib.pyplot as plt -def PositionEncoding(seq_len, d_model, n=10000): - P = np.zeros((seq_len, d_model)) - for k in range(seq_len): - for i in np.arange(int(d_model/2)): - denominator = np.power(n, 2*i/d_model) - P[k, 2*i] = np.sin(k/denominator) - P[k, 2*i+1] = np.cos(k/denominator) - return P - -P = PositionEncoding(seq_len=4, d_model=4, n=100) -print(P) -``` -```python -[[ 0. 1. 0. 1. ] - [ 0.84147098 0.54030231 0.09983342 0.99500417] - [ 0.90929743 -0.41614684 0.19866933 0.98006658] - [ 0.14112001 -0.9899925 0.29552021 0.95533649]] -``` -这样的位置编码主要有两个好处: - -1. 使 PE 能够适应比训练集里面所有句子更长的句子,假设训练集里面最长的句子是有 20 个单词,突然来了一个长度为 21 的句子,则使用公式计算的方法可以计算出第 21 位的 Embedding。 -2. 可以让模型容易地计算出相对位置,对于固定长度的间距 k,PE(pos+k) 可以用 PE(pos) 计算得到。因为 Sin(A+B) = Sin(A)Cos(B) + Cos(A)Sin(B), Cos(A+B) = Cos(A)Cos(B) - Sin(A)Sin(B)。 - -​关于位置编码,有许多学者从数学的角度证明了该编码方式相对于其他更简单、直观的编码方式的优越性与必要性,由于本文重点在于代码的解析,此处不再赘述,感兴趣的读者可以查阅相关资料,如博客:[Transformer Architecture: The Positional Encoding](https://kazemnejad.com/blog/transformer_architecture_positional_encoding/)、[A Gentle Introduction to Positional Encoding in Transformer Models](https://machinelearningmastery.com/a-gentle-introduction-to-positional-encoding-in-transformer-models-part-1/) 等。 - -​编码结果示例如下: - -
image-20230129201913077
- -​位置编码的实现如下: - -```python -class PositionalEncoding(nn.Module): - - def __init__(self, d_model, dropout, max_len=5000): - super(PositionalEncoding, self).__init__() - self.dropout = nn.Dropout(p=dropout) - - # Compute the positional encodings once in log space. - pe = torch.zeros(max_len, d_model) - # 位置矩阵,初始化为0 - position = torch.arange(0, max_len).unsqueeze(1) - # 公式中的POS - div_term = torch.exp( - torch.arange(0, d_model, 2) * -(math.log(10000.0) / d_model) - ) - # 此处对公式中的指数计算取了个对数 - pe[:, 0::2] = torch.sin(position * div_term) - pe[:, 1::2] = torch.cos(position * div_term) - # 基于公式计算位置编码 - pe = pe.unsqueeze(0) - self.register_buffer("pe", pe) - # 定义一组训练中不会改变的参数pe - - def forward(self, x): - x = x + self.pe[:, : x.size(1)].requires_grad_(False) - # 向词向量中加入位置编码 - return self.dropout(x) -``` - -## 最终建模 - -​在完成上述实现后,再将其各个组件组合起来即可,此处使用一个函数建立完整模型: - -```python -def make_model( - src_vocab, tgt_vocab, N=6, d_model=512, d_ff=2048, h=8, dropout=0.1 -): - "Helper: Construct a model from hyperparameters." - c = copy.deepcopy - attn = MultiHeadedAttention(h, d_model) - # 多头注意力层 - ff = PositionwiseFeedForward(d_model, d_ff, dropout) - # 前馈神经网络层 - position = PositionalEncoding(d_model, dropout) - # 位置编码层 - model = EncoderDecoder( - Encoder(EncoderLayer(d_model, c(attn), c(ff), dropout), N), - # 编码器 - Decoder(DecoderLayer(d_model, c(attn), c(attn), c(ff), dropout), N), - # 解码器,第一个attn为自注意力层,第二个attn为加入编码器输出的注意力层 - nn.Sequential(Embeddings(d_model, src_vocab), c(position)), - # 输入语料编码层 - nn.Sequential(Embeddings(d_model, tgt_vocab), c(position)), - # 输出语料编码层 - Generator(d_model, tgt_vocab), - # 分类层 - ) - - # This was important from their code. - # Initialize parameters with Glorot / fan_avg. - for p in model.parameters(): - if p.dim() > 1: - nn.init.xavier_uniform_(p) - # 初始化参数 - return model -``` - -## 训练 - -​基于 Pytorch 实现的 Transformer 的训练大致沿用了 Pytorch 的框架,整体流程同使用 Pytorch 建立深度学习模型的流程大致相同,只不过实现了一些更底层的细节自定义。 - -### Traning Loop - -​作者并没有直接使用 Pytorch 提供的训练函数,而是自定义了一个用于记录训练过程的类: - -```python -class TrainState: - """Track number of steps, examples, and tokens processed""" - - step: int = 0 # Steps in the current epoch - accum_step: int = 0 # Number of gradient accumulation steps - samples: int = 0 # total # of examples used - tokens: int = 0 # total # of tokens processed -``` - -​ 接着,基于该类的实现定义了运行函数: - -```python -def run_epoch( - data_iter,# 数据集 - model,# 模型 - loss_compute,# 损失计算函数 - optimizer,# 优化器 - scheduler,# 调度器 - mode="train",# 模式,训练或测试 - accum_iter=1,# 进行优化的轮数 - train_state=TrainState(), -): - """Train a single epoch""" - start = time.time() - total_tokens = 0 - total_loss = 0 - tokens = 0 - n_accum = 0 - for i, batch in enumerate(data_iter): - out = model.forward( - batch.src, batch.tgt, batch.src_mask, batch.tgt_mask - )# 模型的前向计算 - loss, loss_node = loss_compute(out, batch.tgt_y, batch.ntokens) - # 计算当下的模型损失 - # loss_node = loss_node / accum_iter - if mode == "train" or mode == "train+log": - loss_node.backward() - # 返乡传播 - train_state.step += 1 - train_state.samples += batch.src.shape[0] - train_state.tokens += batch.ntokens - if i % accum_iter == 0: - # 每隔 accum_iter 轮优化一次 - optimizer.step() - optimizer.zero_grad(set_to_none=True) - n_accum += 1 - train_state.accum_step += 1 - scheduler.step() - - total_loss += loss - total_tokens += batch.ntokens - tokens += batch.ntokens - if i % 40 == 1 and (mode == "train" or mode == "train+log"): - lr = optimizer.param_groups[0]["lr"] - elapsed = time.time() - start - print( - ( - "Epoch Step: %6d | Accumulation Step: %3d | Loss: %6.2f " - + "| Tokens / Sec: %7.1f | Learning Rate: %6.1e" - ) - % (i, n_accum, loss / batch.ntokens, tokens / elapsed, lr) - ) - start = time.time() - tokens = 0 - del loss - del loss_node - return total_loss / total_tokens, train_state -``` - -### 优化器 - -​在 Transformer 中,使用了 Adam 优化器,该优化器学习率的计算基于下式: -$$ -\rm learning rate=d^{-0.5}_{model} * min(step\_num^{-0.5}, step\_num * warmup\_steps^{-1.5}) -$$ -​为何选择该优化器,以及该优化器有什么优势,感兴趣的读者可以查阅相关资料如:[【Adam】优化算法浅析](https://zhuanlan.zhihu.com/p/90169812)来深入探究其内部数学原理,此处不再赘述。基于上式,其优化器实现如下: - -```python -def rate(step, model_size, factor, warmup): - """ - we have to default the step to 1 for LambdaLR function - to avoid zero raising to negative power. - """ - if step == 0: - step = 1 - return factor * ( - model_size ** (-0.5) * min(step ** (-0.5), step * warmup ** (-1.5)) - ) -``` - -​Pytorch 也提供了各种优化器的调用 API,也包括 Adam,在实际使用中可以直接调用。 - -### 正则化 - -​在训练过程中,作者使用了标签平滑来实现正则化,从而提高模型预测的准确率。具体的,使用了 KL 散度来计算标签平滑,此处同样不再赘述标签平滑、KL 散度的原理,感兴趣的读者可以参阅下列博客:[【正则化】Label Smoothing详解](https://blog.csdn.net/Roaddd/article/details/114761023)、[Kullback-Leibler(KL)散度介绍](https://zhuanlan.zhihu.com/p/100676922)。标签平滑的代码实现如下: - -```python -class LabelSmoothing(nn.Module): - "Implement label smoothing." - - def __init__(self, size, padding_idx, smoothing=0.0): - super(LabelSmoothing, self).__init__() - self.criterion = nn.KLDivLoss(reduction="sum")# 使用 KL 散度计算 - self.padding_idx = padding_idx # 遮掩部分index - self.confidence = 1.0 - smoothing - self.smoothing = smoothing - self.size = size - self.true_dist = None - - def forward(self, x, target): - assert x.size(1) == self.size - true_dist = x.data.clone() - true_dist.fill_(self.smoothing / (self.size - 2)) - true_dist.scatter_(1, target.data.unsqueeze(1), self.confidence) - true_dist[:, self.padding_idx] = 0 - mask = torch.nonzero(target.data == self.padding_idx) - if mask.dim() > 0: - true_dist.index_fill_(0, mask.squeeze(), 0.0) - self.true_dist = true_dist - return self.criterion(x, true_dist.clone().detach()) -``` - -## 总结 - -### 优点 - -​Transformer 作为 NLP 发展史上里程碑的模型,是具有较大创新性和指导性的。其创造性地抛弃了沿用了几十年的 CNN、RNN 架构,完全使用 Attention 机制来搭建网络并取得了良好的效果,帮助 Attention 机制站上了时代的舞台。而论及模型本身,Attention 机制的使用使其能够有效捕捉长距离相关性,解决了 NLP 领域棘手的长距依赖问题,同时,抛弃了 RNN 架构使其能够充分实现并行化,提升了模型计算能力。 - -### 缺点 - -​不可否认,Transformer 也存在诸多缺陷。最明显的一点是,提出该模型的论文名为《Attention Is All You Need》,但事实上我们真的仅仅只需要 Attention 吗?粗暴的抛弃 CNN 与 RNN 虽然非常炫技,但也使模型丧失了捕捉局部特征的能力,RNN + CNN + Attention 也许能够带来更好的效果。其次,Attention 机制失去了位置信息,虽然 Transformer 使用了 Positional Encoding 来补充位置信息,但只是权宜之计,没有改变其结构上的固有缺陷。最后,Attention 机制的参数量庞大,训练的门槛与成本也有了一定提高。因此,正是在 Transformer 提出之后,如 BERT、XLNet 等基于 Transformer 结构的强大、昂贵的预训练模型也逐步登上时代的舞台。 - -## 参考材料: - -1. [Attention Is All You Need](https://arxiv.org/abs/1706.03762) -2. https://lilianweng.github.io/posts/2018-06-24-attention/ -3. https://zhuanlan.zhihu.com/p/48508221 - diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/ViT\350\247\243\350\257\273.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/ViT\350\247\243\350\257\273.md.txt" deleted file mode 100644 index 3bbdf6f0b..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/ViT\350\247\243\350\257\273.md.txt" +++ /dev/null @@ -1,495 +0,0 @@ -# ViT解读 - -

-[ViT] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. -
-Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, Neil Houlsby. -
-ICLR 2021. -[paper] [code] -
-解读者:牛志康,西安电子科技大学本科生,Datawhale成员;小饭同学,香港城市大学研究生 - -
-

- -## 前言 - -Transformer 已经成为自然语言处理任务的一种基础网络,但它在计算机视觉中的应用仍然有限。因为 Transformer 对序列进行建模,如果我们将图像种的每一个像素都作为序列中的元素,因为序列的大小与图片的大小呈平方关系,将导致计算量大大增加。现有的工作要么是将注意力与卷积网络结合使用,要么用注意力机制替换 CNN 的某些组件或者降低图片的序列长度。这些改进都是基于 convolutional neural network (CNN) 卷积神经网络构建的,于是人们就在希望有一种完全基于 Transformer 的骨干网络,可以拥有 Transformer 全局建模的特性也可以不过多修改原始 Transformer 的结构。基于这种 motivation,才出现了 Vision Transformer (ViT) 这篇优秀的工作。 - -本文将从原理和代码实现上进行讲解,结合本课程需求,我们将着重讲解代码的实现,论文中更多的细节还请各位同学详细阅读原论文或关注 Whalepaper 后续的论文精读。 - - -## ViT 的整体流程 - -如下图所示,ViT 的主要思想是将图片分成一个一个的小 `patch`,将每一个 `patch` 作为序列的元素输入 Transformer 中进行计算。 - - -其具体流程如下: -1. **切分和映射**:对一张标准图像,我们首先将图片切分成一个一个小的 `patch`,然后将它们的维度拉平 `Flatten` 为一维的向量,最后我们将这些向量通过线性映射 `Linear Project` $\mathbf{E}$ 到维度为 $D$ 的空间。 -2. **分类表征和位置信息**:**分类表征**:为了实现图像分类,我们在得到的向量中需要加入一个 `classs token` $\mathbf{x}_\text{class}$ 作为分类表征(如上图中标注 $*$的粉色向量所示)。**位置信息**:图像和文本一样也需要注意顺序问题,因此作者通过 `Position Embedding` $\mathbf{E}_{pos}$ 加入位置编码信息(如上图中标注 $0-9$ 的紫色向量所示)。 -3. **Transformer Encoder**:然后我们将经过上面操作的 `token` 送入 `Transformer Encoder`。这里的 `Transformer Encoder` 和 `Transformer (Attention is All You Need)` 文章中实现基本一致,主要是通过多头注意力机制,对 `patch` 之间进行全局的信息提取。 -4. **输出与分类**:对于分类任务,我们只需要获得 `class token` 经过 `Transformer Encoder` 得到的输出,加一个 `MLP Head` 进行分类学习。 - -我们论文代码的讲解也将按照上面的流程,对重要模块进行讲解,我们所展示的ViT代码示例来源于[rwightman/timm](https://github.com/rwightman/pytorch-image-models/blob/master/timm/models/vision_transformer.py)并进行了部分简化,在此感谢每一位开源贡献者所作出的贡献。 - -## 切分和映射 Patch Embedding + Linear Projection - -对一张标准图像 $\mathbf{x}$,其分辨率为 $H \times W \times C$。为了方便讨论,我们取 ViT 的标准输入 $H \times W \times C = 224 \times 224 \times 3$ 进行一些具体维度的讲解。通过切分操作,我们将整个图片分成多个 `patch` $\mathbf{x}_p$,其大小为 $$P \times P \times C = 16 \times 16 \times 3 = 768。$$ 这样,一共可以得到 `Patch` 的数量为 $$N={(H \times W)}/{(P \times P)} = {(224 \times 224)}/{(16 \times 16)} = {(224 / 16)}\times {(224 / 16)} = 14 \times 14 = 196。$$ 所以,我们将一张 $224 \times 224 \times 3$ 的标准图片, 通过转换得到了 $196$ 个 `patch`,每个 `patch` 的维度是 $768$。 - -对得到的 `patch` 通过 $\mathbf{E} \in {\mathbb{R}^{768 \times D}}$ 进行线性映射到维度 $D$,我们将映射后的 `patch` 叫做 `token`,以便于和原本 Transformer 的术语进行统一(代码中默认的 $D$ 仍然为 $768$。我们认为,为了不损失信息,这里 $D$ 满足大于等于 $768$ 即可)。对应文中公式,上述操作可以表示为: -$$ -\begin{align} -[\mathbf{x}_p^1\mathbf{E}; \mathbf{x}_p^2\mathbf{E}; \cdots; \mathbf{x}_p^N\mathbf{E}], \quad \mathbf{E}\in\mathbb{R}^{(P^2\cdot C)\times D}。 -\end{align} -$$ - -以上是按照原论文对**切分和映射**的讲解,在实际的代码实现过程中,切分和映射实际上是通过一个二维卷积 `nn.Conv2d()` 一步完成的。为了实现一步操作,作者将卷积核的大小 `kernal_size` 直接设置为了 `patch_size`,即 $P=16$。然后,将卷积核的步长 `stride` 也设置为了同样的 `patch_size`,这样就实现了不重复的切割图片。而卷积的特征输入和输出维度,分别设为了 $C=3$ 和 $D=768$,对应下方代码的 `in_c` 和 `embed_dim`。 -```python -self.proj = nn.Conv2d(in_c, embed_dim, kernel_size=patch_size, stride=patch_size) -``` -一张 $1 \times 3 \times 224 \times 224$ 的图像(其中 $1$ 是 `batch_size` 的维度),经过上述卷积操作得到 $1 \times 768 \times 14 \times 14$ 的张量。(代码中将 $14 \times 14 = 196$ 当作 `grid` 的个数,即 `grid_size=(14, 14)`)然后,对其进行拉平 `flatten(2)` 得到 $1 \times 768 \times 196$ 的张量。因为 Transformer 需要将序列维度调整到前面,我们再通过 `transpose(1, 2)` 调整特征和序列维度,最终得到的张量大小为 $1 \times 196 \times 768$。切分、映射、拉平和维度调整统统经过下面一步操作得到: -```python -x = self.proj(x).flatten(2).transpose(1, 2) -``` - -在代码中,这些操作全部被写在名为 `PatchEmbed` 的模块中,其具体的实现如下所示: - -```python -class PatchEmbed(nn.Module): - """ - Image --> Patch Embedding --> Linear Proj --> Pos Embedding - Image size -> [224,224,3] - Patch size -> 16*16 - Patch num -> (224^2)/(16^2)=196 - Patch dim -> 16*16*3 =768 - Patch Embedding: [224,224,3] -> [196,768] - Linear Proj: [196,768] -> [196,768] - Positional Embedding: [197,768] -> [196,768] - """ - def __init__(self, img_size=224, patch_size=16, in_c=3, embed_dim=768, norm_layer=None): - """ - Args: - img_size: 默认参数224 - patch_size: 默认参数是16 - in_c: 输入的通道数 - embed_dim: 16*16*3 = 768 - norm_layer: 是否使用norm层,默认为否 - """ - super().__init__() - img_size = (img_size, img_size) # -> img_size = (224,224) - patch_size = (patch_size, patch_size) # -> patch_size = (16,16) - self.img_size = img_size # -> (224,224) - self.patch_size = patch_size # -> (16,16) - self.grid_size = (img_size[0] // patch_size[0], img_size[1] // patch_size[1]) # -> grid_size = (14,14) - self.num_patches = self.grid_size[0] * self.grid_size[1] # -> num_patches = 196 - # Patch+linear proj的这个操作 [224,224,3] --> [14,14,768] - self.proj = nn.Conv2d(in_c, embed_dim, kernel_size=patch_size, stride=patch_size) - # 判断是否有norm_layer层,要是没有不改变输入 - self.norm = norm_layer(embed_dim) if norm_layer else nn.Identity() - - def forward(self, x): - # 计算各个维度的大小 - B, C, H, W = x.shape - assert H == self.img_size[0] and W == self.img_size[1], \ - f"Input image size ({H}*{W}) doesn't match model ({self.img_size[0]}*{self.img_size[1]})." - - # flatten: [B, C, H, W] -> [B, C, HW], flatten(2)代表的是从2位置开始展开 - # eg: [1,3,224,224] --> [1,768,14,14] -flatten->[1,768,196] - # transpose: [B, C, HW] -> [B, HW, C] - # eg: [1,768,196] -transpose-> [1,196,768] - x = self.proj(x).flatten(2).transpose(1, 2) - x = self.norm(x) - return x -``` -**在默认情况下,这一步是不进行 ``layer_norm`` 操作的,即它被设置为 ``nn.Identity()``。对于 ``layer_norm``,我们会在下面进行详细的讲解。 - -## 分类表征和位置信息 Class Token + Postional Embedding -如下图所示,左侧灰色部分为加入分类表征,中间紫色部分为加入位置信息。 -![图源amaarora](./figures/vit_cls_pos.png) - -**分类表征:Class Token** -为了实现图像分类,我们在切分和映射后的向量 $[\mathbf{x}_p^1\mathbf{E}; \mathbf{x}_p^2\mathbf{E}; \cdots; \mathbf{x}_p^N\mathbf{E}]$ 中加入一个 `class token` $\mathbf{x}_\text{class} \in \mathbb{R}^{D}$ 作为分类表征(如上图中最左侧深灰色框所示)。将这个表征放置在序列的第一个位置上,我们就得到一个维度为 $(196+1) \times 768$ 的新张量: -$$ -\begin{align} -[\mathbf{x}_{\text{class}}; \mathbf{x}_p^1\mathbf{E}; \mathbf{x}_p^2\mathbf{E}; \cdots; \mathbf{x}_p^N\mathbf{E}] -\end{align} -$$ -对于具体的代码实现,我们通过 `nn.Parameter(torch.zeros(1, 1, 768))` 实例化一个可学习的 `cls_token`,然后将这个 `cls_token` 按照 `batch_size = x.shape[0]` 进行复制,最后将其和之前经过切分和映射的 `x` 并在一起 ` torch.cat((cls_token, x), dim=1)`。其完整代码,如下所示: -```python -cls_token = nn.Parameter(torch.zeros(1, 1, 768)) # -> cls token -nn.init.trunc_normal_(self.cls_token, std=0.02) # 初始化 -cls_token = cls_token.expand(x.shape[0], -1, -1) # (1,1,768) -> (128,1,768) -x = torch.cat((cls_token, x), dim=1) # [128, 197, 768] -``` - -**其实也可以不加入这个 `cls token`,我们可以对输出 `token` 做 `GAP(Global Average Pooling)`,然后对 `GAP` 的结果进行分类。 - -**位置信息:Postional Embedding** -图像和文本一样也需要注意顺序问题,因此作者通过 `Position Embedding` $\mathbf{E}_{\text{pos}}\in\mathbb{R}^{(N + 1)\times D}$ 加入位置编码信息。这个 `Position Embedding` 和上面得到的分类表征张量,直接相加: -$$ -\begin{align} -\mathbf{z}_0 &= [\mathbf{x}_{\text{class}}; \mathbf{x}_p^1\mathbf{E}; \mathbf{x}_p^2\mathbf{E}; \cdots; \mathbf{x}_p^N\mathbf{E};] + \mathbf{E}_{\text{pos}}, & \mathbf{E}&\in\mathbb{R}^{(P^2\cdot C)\times D}, \mathbf{E}_{\text{pos}}\in\mathbb{R}^{(N + 1)\times D} -\end{align} -$$ - -与 Transformer 使用余弦位置编码不同的是,ViT 通过`nn.Parameter()`实现了一个可以学习的位置编码。 -```python -num_patches = 196 -pos_embed = nn.Parameter(torch.zeros(1, num_patches + 1, 768)) -x = x + pos_embed -``` -**这里 `pos_embed` 在 `batch_size` 的维度进行了 boardcast,所以所有的样本都是同样的 `pos_embed`。 - - -## Transformer Encoder -下一步,我们只需要将序列 $\mathbf{z}_0$ 输入 Transformer Encoder 即可。如下图所示,每个 Transformer Encoder 由 Multi-head Attention、MLP、Norm (Layer Norm,LN) 并外加 shortcut 连接实现。 -$$ -\begin{align} -\mathbf{z}'_l &= \text{MSA}(\text{LN}(\mathbf{z}_{l-1})) + \mathbf{z}_{l-1}, & l &=1\dots L, \\ -\mathbf{z}_l &= \text{MLP}(\text{LN}(\mathbf{z}'_l)) + \mathbf{z}'_l, & l &=1\dots L, \\ -\mathbf{y} &= \text{LN}(\mathbf{z}_L^0) -\end{align} -$$ -
-
- -
-
-下面我们将对这些模块逐一进行讲解。 - - - - -### Multi-head Attention -Multi-head Attention 或者叫做 Multi-head Self-Attention (MSA) 是由多个 Self-attention (SA) 模块组成,它们的框图可由下面所示,其中左侧为 SA,右侧为 MSA。 -
-
- -· -· -· -· -· -· - -
-
- -对于一个标准的 SA 模块,我们通过对输入张量 $\mathbf{z}$ 进行一个映射 $\mathbf{W_{SA}}$ 得到 $Q, K, V$ -$$ -[Q, K, V] = \mathbf{z} \mathbf{W}_{\text{SA}}. -$$ -对于 MSA,我们需要对其输入再次进行切分为 $k$ 个部分 ($k=$``self.num_heads``),而每个部分的维度为原本维度的 $k$ 分之一,即 ``C // self.num_heads``。然后,将维度进行调整,即 `q, k, v` 到第 1 个维度, 批大小 `batch_size` 为第 2 个维度,头的数量数量 `num_heads` 为第 3 个维度,切分块的数量 `num_patches` 和每个头的特征维度 `embed_dim_per_head` 为最后两个维度。这种维度调整,将方便提取 ``q, k, v``,以及后面的注意力计算。上述步骤在代码中对应: -```python -self.qkv = nn.Linear(dim, dim * 3, bias=qkv_bias) -qkv = self.qkv(x).reshape(B, N, 3, self.num_heads, C // self.num_heads).permute(2, 0, 3, 1, 4) -q, k, v = qkv[0], qkv[1], qkv[2] # seperate q, k, v -``` - -现在,如果我们将每一个 ``head``,看作一个独立的计算单元。我们可以对每一个``head`` 进行标准的 SA 计算 -$$ -Attention(Q, K, V) = softmax(\frac{Q K^T}{\sqrt {D_k}}) \cdot V -$$ -然后,这些 ``head`` 会被拼接在一起,计算最终的输出: -$$ -\mathrm{MultiHead}(Q, K, V) = \mathrm{Concat}(\mathrm{head_1}, ..., -\mathrm{head_h})W^O \\ - \text{where}~\mathrm{head_i} = \mathrm{Attention}(QW^Q_i, KW^K_i, VW^V_i) -$$ - -其中 $W^O$ 代表的是线性变换层,$head_i$ 代表的是每个 `head` 的输出,其中 $W^Q_i$,$W^K_i$, $W^V_i$,等价于每个 `head` 的线性映射权重(如上面计算 `qkv`所讲,实际代码实现中,我们会先一起计算 `qkv`,再进行 `head` 的切分)。如果按照默认实现,一般切分为 $k=8$ 个头,其中 $D_k=D/k = 768/8=96$,是为了归一化点乘的结果。 - -在代码实现的时候,作者充分考虑了多头的并行计算。通过点乘的形式对所有的 ``head`` 一起计算相关性 ``(q @ k.transpose(-2, -1))``,然后经过 `softmax` 得到权重 ``attn`` (这些权重的维度为 ``[batch_size, num_heads, num_patches + 1, num_patches + 1]``)。 -之后将这些权重 ``attn`` 和 `v` (其维度为 ``[batch_size, num_heads, num_patches+1, embed_dim_per_head]``) 进行点乘,得到注意力的输出结果。这里在点乘的时候,我们只需要看 ``attn`` 和 ``v``的最后两个维度,分别为``[num_patches + 1, num_patches + 1]`` 和 ``[num_patches+1, embed_dim_per_head]``,维持其他维度不变,我们可以得到输出的结果维度为 ``[batch_size, num_heads, num_patches + 1, embed_dim_per_head]``。 -最后,我们通过将特征维度和多头维度交换 ``transpose(1, 2)`` 和 重组第2个及后面所有的维度 ``reshape(B, N, C)``,就可以得到维度为 `[batch_size, num_patches + 1, total_embed_dim]` 和上面公式相同的并行多头计算结果。其完整实现如下所示 -```python -class Attention(nn.Module): - def __init__(self, - dim, # 输入token的dim - num_heads=8, # attention head的个数 - qkv_bias=False, # 是否使用qkv bias - qk_scale=None, - attn_drop_ratio=0., - proj_drop_ratio=0.): - super(Attention, self).__init__() - self.num_heads = num_heads - # 计算每一个head处理的维度head_dim = dim // num_heads --> 768/8 = 96 - head_dim = dim // num_heads - self.scale = qk_scale or head_dim ** -0.5 # 根下dk操作 - # 使用nn.Linear生成w_q,w_k,w_v,因为本质上每一个变换矩阵都是线性变换, - self.qkv = nn.Linear(dim, dim * 3, bias=qkv_bias) - self.attn_drop = nn.Dropout(attn_drop_ratio) - self.proj = nn.Linear(dim, dim) - self.proj_drop = nn.Dropout(proj_drop_ratio) - - def forward(self, x): - # [batch_size, num_patches + 1, total_embed_dim] - # total_embed_dim不是一开始展开的那个维度,是经过了一个线性变换层得到的 - B, N, C = x.shape - - # [batch_size, num_patches+1, total_embed_dim] -qkv()-> [batch_size, num_patches + 1, 3 * total_embed_dim] - # reshape: -> [batch_size, num_patches + 1, 3, num_heads, embed_dim_per_head] - # permute: -> [3, batch_size, num_heads, num_patches + 1, embed_dim_per_head] - qkv = self.qkv(x).reshape(B, N, 3, self.num_heads, C // self.num_heads).permute(2, 0, 3, 1, 4) - # q,k,v = [batch_size, num_heads, num_patches + 1, embed_dim_per_head] - q, k, v = qkv[0], qkv[1], qkv[2] # make torchscript happy (cannot use tensor as tuple) - - # transpose(-2,-1)在最后两个维度进行操作,输入的形状[batch_size,num_heads,num_patches+1,embed_dim_per_head] - # transpose: -> [batch_size, num_heads, embed_dim_per_head, num_patches + 1] - # @: multiply -> [batch_size, num_heads, num_patches + 1, num_patches + 1] - attn = (q @ k.transpose(-2, -1)) * self.scale - attn = attn.softmax(dim=-1) - attn = self.attn_drop(attn) - - # @: multiply -> [batch_size, num_heads, num_patches + 1, embed_dim_per_head] - # transpose: -> [batch_size, num_patches + 1, num_heads, embed_dim_per_head] - # reshape: -> [batch_size, num_patches + 1, total_embed_dim] - x = (attn @ v).transpose(1, 2).reshape(B, N, C) - x = self.proj(x) - x = self.proj_drop(x) - return x -``` - -### MLP -MLP层类似于原始Transformer中的Feed Forward Network。 -> In ViT, only MLP layers are local and translationally equivariant, while the self-attention layers are global. - -为了理解这句话,即 MLP 只对局部信息进行操作,我们需要强调 `nn.Linear()` 操作只对输入张量的最后一个维度进行操作。那么,对于输入维度为 `[batch_size, num_patches + 1, total_embed_dim]`,学习到的线性层对于所有 `patch` 都是一样的。所以,它是一个局部信息的建模。对于 Attention,因为它是在不同的 `patch` 层面或者不同的序列层面进行建模,所以是全局信息建模。因此,作者使用了 MLP 和 Attention 一起进行局部和全局信息的提取。 - -```python -class Mlp(nn.Module): - """ - in_features --> hidden_features --> out_features - 论文实现时:in_features.shape = out_features.shape - """ - def __init__(self, in_features, hidden_features=None, out_features=None, act_layer=nn.GELU, drop=0.): - super().__init__() - # 用or实现了或操作,当hidden_features/out_features为默认值None时 - # 此时out_features/hidden_features=None or in_features = in_features - # 当对out_features或hidden_features进行输入时,or操作将会默认选择or前面的 - # 此时out_features/hidden_features = out_features/hidden_features - out_features = out_features or in_features - hidden_features = hidden_features or in_features - self.fc1 = nn.Linear(in_features, hidden_features) - self.act = act_layer() - self.fc2 = nn.Linear(hidden_features, out_features) - self.drop = nn.Dropout(drop) - - def forward(self, x): - # in_features --> hidden_features --> out_features - x = self.fc1(x) - x = self.act(x) - x = self.drop(x) - x = self.fc2(x) - x = self.drop(x) - return x -``` - -### Layer Norm -Normalization 有很多种,但是它们都有一个共同的目的,那就是把输入转化成均值为 0 方差为 1 的数据(或者某个学习到的均值和方差)。我们在把数据送入激活函数之前进行 Normalization(归一化),因为我们不希望输入数据落在激活函数的饱和区。 - -Batch Norm 的作用是在对这批样本的同一维度特征做归一化,而 Layer Norm 的作用是对**单个样本的所有维度特征做归一化**。举一个简单的例子,对于通过编码的句子“我爱学习”,Batch Norm 是对这四个字进行归一化,而 Layer Norm 是对每个字本身的特征进行归一化。 - -对于 Layer Norm,其公式如下所示 -$$L N\left(x_i\right)=\alpha \times \frac{x_i-u_L}{\sqrt{\sigma_L^2+\epsilon}}+\beta$$ -可以通过 `nn.LayerNorm` 进行实现。 - - -### Transformer Encoder 完整代码 -整合上面 Multi-head Attention、MLP、Norm (Layer Norm,LN) 并外加 shortcut 连接代码,我们可以得到 Transformer Encoder 的完整代码。 -```python -class Block(nn.Module): - """ - 每一个Encoder Block的构成 - 每个Encode Block的流程:norm1 --> Multi-Head Attention --> norm2 --> MLP - """ - def __init__(self, - dim, # 输入mlp的维度 - num_heads, # Multi-Head-Attention的头个数 - mlp_ratio=4., # hidden_features / in_features = mlp_ratio - qkv_bias=False, # q,k,v的生成是否使用bias - qk_scale=None, - drop_ratio=0., # dropout的比例 - attn_drop_ratio=0., # 注意力dropout的比例 - drop_path_ratio=0., - act_layer=nn.GELU, # 激活函数默认使用GELU - norm_layer=nn.LayerNorm): # Norm默认使用LayerNorm - super(Block, self).__init__() - # 第一层normalization - self.norm1 = norm_layer(dim) - # self.attention层的实现 - self.attn = Attention(dim, num_heads=num_heads, qkv_bias=qkv_bias, qk_scale=qk_scale,attn_drop_ratio=attn_drop_ratio, proj_drop_ratio=drop_ratio) - self.drop_path = DropPath(drop_path_ratio) if drop_path_ratio > 0. else nn.Identity() - # 第二层normalization - self.norm2 = norm_layer(dim) - mlp_hidden_dim = int(dim * mlp_ratio) # hidden_dim = dim * mlp_ratio - # mlp实现 - self.mlp = Mlp(in_features=dim, hidden_features=mlp_hidden_dim, act_layer=act_layer, drop=drop_ratio) - - def forward(self, x): - # 实现了两个残差连接 - x = x + self.drop_path(self.attn(self.norm1(x))) - x = x + self.drop_path(self.mlp(self.norm2(x))) - return x -``` - - - -## ViT 完整代码 -对输入图像,进行切分和影射、加入分类表征和位置信息、经过 Transformer Encoder、然后添加一个分类头进行输出,我们就完成了 ViT 所有的代码。 - -完整的 ViT 主要模块流程,见下方 `VisionTransformer`。 - -```python -class VisionTransformer(nn.Module): - def __init__(self, - img_size=224, - patch_size=16, - in_c=3, - num_classes=1000, - embed_dim=768, - depth=12, - num_heads=12, - mlp_ratio=4.0, - qkv_bias=True, - qk_scale=None, - representation_size=None, - distilled=False, - drop_ratio=0., - attn_drop_ratio=0., - drop_path_ratio=0., - embed_layer=PatchEmbed, - norm_layer=None, - act_layer=None): - """ - Args: - img_size (int, tuple): input image size - patch_size (int, tuple): patch size - in_c (int): number of input channels - num_classes (int): number of classes for classification head - embed_dim (int): embedding dimension - depth (int): depth of transformer - num_heads (int): number of attention heads - mlp_ratio (int): ratio of mlp hidden dim to embedding dim - qkv_bias (bool): enable bias for qkv if True - qk_scale (float): override default qk scale of head_dim ** -0.5 if set - representation_size (Optional[int]): enable and set representation layer (pre-logits) to this value if set - distilled (bool): model includes a distillation token and head as in DeiT models - drop_ratio (float): dropout rate - attn_drop_ratio (float): attention dropout rate - drop_path_ratio (float): stochastic depth rate - embed_layer (nn.Module): patch embedding layer - norm_layer: (nn.Module): normalization layer - """ - super(VisionTransformer, self).__init__() - self.num_classes = num_classes - # 每个patch的图像维度 = embed_dim - self.num_features = self.embed_dim = embed_dim # num_features for consistency with other models - # token的个数为1 - self.num_tokens = 2 if distilled else 1 - # 设置激活函数和norm函数 - norm_layer = norm_layer or partial(nn.LayerNorm, eps=1e-6) - act_layer = act_layer or nn.GELU - # 对应的将图片打成patch的操作 - self.patch_embed = embed_layer(img_size=img_size, patch_size=patch_size, in_c=in_c, embed_dim=embed_dim) - num_patches = self.patch_embed.num_patches - # 设置分类的cls_token - self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) - # distilled 是Deit中的 这里为None - self.dist_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) if distilled else None - # pos_embedding 为一个可以学习的参数 - self.pos_embed = nn.Parameter(torch.zeros(1, num_patches + self.num_tokens, embed_dim)) - self.pos_drop = nn.Dropout(p=drop_ratio) - - dpr = [x.item() for x in torch.linspace(0, drop_path_ratio, depth)] # stochastic depth decay rule - # 使用nn.Sequential进行构建,ViT中深度为12 - self.blocks = nn.Sequential(*[ - Block(dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, qk_scale=qk_scale, - drop_ratio=drop_ratio, attn_drop_ratio=attn_drop_ratio, drop_path_ratio=dpr[i], - norm_layer=norm_layer, act_layer=act_layer) - for i in range(depth) - ]) - self.norm = norm_layer(embed_dim) - - # Representation layer - if representation_size and not distilled: - self.has_logits = True - self.num_features = representation_size - self.pre_logits = nn.Sequential(OrderedDict([ - ("fc", nn.Linear(embed_dim, representation_size)), - ("act", nn.Tanh()) - ])) - else: - self.has_logits = False - self.pre_logits = nn.Identity() - - # Classifier head(s) - self.head = nn.Linear(self.num_features, num_classes) if num_classes > 0 else nn.Identity() - self.head_dist = None - if distilled: - self.head_dist = nn.Linear(self.embed_dim, self.num_classes) if num_classes > 0 else nn.Identity() - - # Weight init - nn.init.trunc_normal_(self.pos_embed, std=0.02) - if self.dist_token is not None: - nn.init.trunc_normal_(self.dist_token, std=0.02) - - nn.init.trunc_normal_(self.cls_token, std=0.02) - self.apply(_init_vit_weights) - - def forward_features(self, x): - # [B, C, H, W] -> [B, num_patches, embed_dim] - x = self.patch_embed(x) # [B, 196, 768] - # [1, 1, 768] -> [B, 1, 768] - cls_token = self.cls_token.expand(x.shape[0], -1, -1) - if self.dist_token is None: - x = torch.cat((cls_token, x), dim=1) # [B, 197, 768] - else: - x = torch.cat((cls_token, self.dist_token.expand(x.shape[0], -1, -1), x), dim=1) - - x = self.pos_drop(x + self.pos_embed) - x = self.blocks(x) - x = self.norm(x) - if self.dist_token is None: - return self.pre_logits(x[:, 0]) - else: - return x[:, 0], x[:, 1] - - def forward(self, x): - x = self.forward_features(x) - if self.head_dist is not None: - x, x_dist = self.head(x[0]), self.head_dist(x[1]) - if self.training and not torch.jit.is_scripting(): - # during inference, return the average of both classifier predictions - return x, x_dist - else: - return (x + x_dist) / 2 - else: - x = self.head(x) - return x - - -def _init_vit_weights(m): - """ - ViT weight initialization - :param m: module - """ - if isinstance(m, nn.Linear): - nn.init.trunc_normal_(m.weight, std=.01) - if m.bias is not None: - nn.init.zeros_(m.bias) - elif isinstance(m, nn.Conv2d): - nn.init.kaiming_normal_(m.weight, mode="fan_out") - if m.bias is not None: - nn.init.zeros_(m.bias) - elif isinstance(m, nn.LayerNorm): - nn.init.zeros_(m.bias) - nn.init.ones_(m.weight) -``` - -> 参考: -> -> An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale https://arxiv.org/pdf/2010.11929.pdf -> Attention Is All You Need https://arxiv.org/abs/1706.03762 - diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/README.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/README.md.txt" deleted file mode 100644 index 568d0d015..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/README.md.txt" +++ /dev/null @@ -1,260 +0,0 @@ -
- -
 
-
- OpenMMLab 官网 - - - HOT - - -      - OpenMMLab 开放平台 - - - TRY IT OUT - - -
-
 
- - -[![PyPI](https://img.shields.io/pypi/v/mmyolo)](https://pypi.org/project/mmyolo) -[![docs](https://img.shields.io/badge/docs-latest-blue)](https://mmyolo.readthedocs.io/en/latest/) -[![deploy](https://github.com/open-mmlab/mmyolo/workflows/deploy/badge.svg)](https://github.com/open-mmlab/mmyolo/actions) -[![codecov](https://codecov.io/gh/open-mmlab/mmyolo/branch/master/graph/badge.svg)](https://codecov.io/gh/open-mmlab/mmyolo) -[![license](https://img.shields.io/github/license/open-mmlab/mmyolo.svg)](https://github.com/open-mmlab/mmyolo/blob/master/LICENSE) -[![open issues](https://isitmaintained.com/badge/open/open-mmlab/mmyolo.svg)](https://github.com/open-mmlab/mmyolo/issues) -[![issue resolution](https://isitmaintained.com/badge/resolution/open-mmlab/mmyolo.svg)](https://github.com/open-mmlab/mmyolo/issues) - -[📘使用文档](https://mmyolo.readthedocs.io/zh_CN/latest/) | -[🛠️安装教程](https://mmyolo.readthedocs.io/zh_CN/latest/get_started.html) | -[👀模型库](https://mmyolo.readthedocs.io/zh_CN/latest/model_zoo.html) | -[🆕更新日志](https://mmyolo.readthedocs.io/en/latest/notes/changelog.html) | -[🤔报告问题](https://github.com/open-mmlab/mmyolo/issues/new/choose) - -
- -
- - -[English](README.md) | 简体中文 - -
- -## 简介 - -MMYOLO 是一个基于 PyTorch 和 MMDetection 的 YOLO 系列算法开源工具箱。它是 [OpenMMLab](https://openmmlab.com/) 项目的一部分。 - -主分支代码目前支持 PyTorch 1.6 以上的版本。 - - -
-主要特性 - - -- **统一便捷的算法评测** - - MMYOLO 统一了各类 YOLO 算法模块的实现, 并提供了统一的评测流程,用户可以公平便捷地进行对比分析。 - -- **丰富的入门和进阶文档** - - MMYOLO 提供了从入门到部署到进阶和算法解析等一系列文档,方便不同用户快速上手和扩展。 - -- **模块化设计** - - MMYOLO 将框架解耦成不同的模块组件,通过组合不同的模块和训练测试策略,用户可以便捷地构建自定义模型。 - -基类 - 图为 RangeKing@GitHub 提供,非常感谢! - -
- - - - -## 教程 - -MMYOLO 基于 MMDetection 开源库,并且采用相同的代码组织和设计方式。为了更好的使用本开源库,请先阅读 [MMDetection 概述](https://mmdetection.readthedocs.io/zh_CN/latest/get_started.html) 对 MMDetection 进行初步地了解。 - -MMYOLO 用法和 MMDetection 几乎一致,所有教程都是通用的,你也可以了解 [MMDetection 用户指南和进阶指南](https://mmdetection.readthedocs.io/zh_CN/3.x/) 。 - -针对和 MMDetection 不同的部分,我们也准备了用户指南和进阶指南,请阅读我们的 [文档](https://mmyolo.readthedocs.io/zh_CN/latest/) 。 - -- 算法解读 - - - [必备基础](https://mmyolo.readthedocs.io/zh_CN/latest/algorithm_descriptions/index.html#基础内容) - - [模型设计相关说明](docs/zh_cn/algorithm_descriptions/model_design.md) - - [算法原理和实现全解析](https://mmyolo.readthedocs.io/zh_CN/latest/algorithm_descriptions/index.html#算法原理和实现全解析) - - [YOLOv5 原理和实现全解析](yolov5_description.md) - - [RTMDet 原理和实现全解析](rtmdet_description.md) - -- 用户指南 - - - [训练 & 测试](https://mmyolo.readthedocs.io/zh_CN/latest/user_guides/index.html#训练-测试) - - [学习 YOLOv5 配置文件](docs/zh_cn/user_guides/config.md) - - [从入门到部署全流程](https://mmyolo.readthedocs.io/zh_CN/latest/user_guides/index.html#从入门到部署全流程) - - [YOLOv5 从入门到部署全流程](docs/zh_cn/user_guides/yolov5_tutorial.md) - - [实用工具](https://mmyolo.readthedocs.io/zh_CN/latest/user_guides/index.html#实用工具) - - [可视化教程](docs/zh_cn/user_guides/visualization.md) - - [实用工具](docs/zh_cn/user_guides/useful_tools.md) - -- 算法部署 - - - [部署必备教程](https://mmyolo.readthedocs.io/zh_CN/latest/algorithm_descriptions/index.html#部署必备教程) - - [部署必备教程](docs/zh_cn/deploy/basic_deployment_guide.md) - - [部署全流程说明](https://mmyolo.readthedocs.io/zh_CN/latest/algorithm_descriptions/index.html#部署全流程说明) - - [YOLOv5 部署全流程说明](docs/zh_cn/deploy/yolov5_deployment.md) - -- 进阶指南 - - - [数据流](docs/zh_cn/advanced_guides/data_flow.md) - - [How to](docs/zh_cn/advanced_guides/how_to.md) - -- [解读文章和资源汇总](docs/zh_cn/article.md) - -## 基准测试和模型库 - -测试结果和模型可以在 [模型库](docs/zh_cn/model_zoo.md) 中找到。 - -
-支持的算法 - - -- [x] [YOLOv5](configs/yolov5) -- [x] [YOLOX](configs/yolox) -- [x] [RTMDet](configs/rtmdet) -- [x] [YOLOv6](configs/yolov6) -- [ ] [PPYOLOE](configs/ppyoloe)(仅推理) -- [ ] [YOLOv7](configs/yolov7)(仅推理) - -
- -
-
- 模块组件 -
- - - - - - - - - - - - - - - - - -
- Backbones - - Necks - - Loss - - Common -
-
    -
  • YOLOv5CSPDarknet
  • -
  • YOLOXCSPDarknet
  • -
  • EfficientRep
  • -
  • CSPNeXt
  • -
-
-
    -
  • YOLOv5PAFPN
  • -
  • YOLOv6RepPAFPN
  • -
  • YOLOXPAFPN
  • -
  • CSPNeXtPAFPN
  • -
-
-
    -
  • IoULoss
  • -
-
-
    -
-
- - -
- -## 常见问题 - -请参考 [FAQ](docs/zh_cn/notes/faq.md) 了解其他用户的常见问题。 - -## 贡献指南 - -我们感谢所有的贡献者为改进和提升 MMYOLO 所作出的努力。我们将正在进行中的项目添加进了[GitHub Projects](https://github.com/open-mmlab/mmyolo/projects)页面,非常欢迎社区用户能参与进这些项目中来。请参考[贡献指南](.github/CONTRIBUTING.md)来了解参与项目贡献的相关指引。 - -## 致谢 - -MMYOLO 是一款由来自不同高校和企业的研发人员共同参与贡献的开源项目。我们感谢所有为项目提供算法复现和新功能支持的贡献者,以及提供宝贵反馈的用户。 我们希望这个工具箱和基准测试可以为社区提供灵活的代码工具,供用户复现已有算法并开发自己的新模型,从而不断为开源社区提供贡献。 - -## 引用 - -如果你觉得本项目对你的研究工作有所帮助,请参考如下 bibtex 引用 MMYOLO - -```latex -@misc{mmyolo2022, - title={{MMYOLO: OpenMMLab YOLO} series toolbox and benchmark}, - author={MMYOLO Contributors}, - howpublished = {\url{https://github.com/open-mmlab/mmyolo}}, - year={2022} -} -``` - -## 开源许可证 - -该项目采用 [GPL 3.0 开源许可证](LICENSE)。 - -## OpenMMLab 的其他项目 - -- [MMEngine](https://github.com/open-mmlab/mmengine): OpenMMLab 深度学习模型训练基础库 -- [MMCV](https://github.com/open-mmlab/mmcv): OpenMMLab 计算机视觉基础库 -- [MIM](https://github.com/open-mmlab/mim): MIM 是 OpenMMlab 项目、算法、模型的统一入口 -- [MMClassification](https://github.com/open-mmlab/mmclassification): OpenMMLab 图像分类工具箱 -- [MMDetection](https://github.com/open-mmlab/mmdetection): OpenMMLab 目标检测工具箱 -- [MMDetection3D](https://github.com/open-mmlab/mmdetection3d): OpenMMLab 新一代通用 3D 目标检测平台 -- [MMRotate](https://github.com/open-mmlab/mmrotate): OpenMMLab 旋转框检测工具箱与测试基准 -- [MMYOLO](https://github.com/open-mmlab/mmyolo): OpenMMLab YOLO 系列工具箱 -- [MMSegmentation](https://github.com/open-mmlab/mmsegmentation): OpenMMLab 语义分割工具箱 -- [MMOCR](https://github.com/open-mmlab/mmocr): OpenMMLab 全流程文字检测识别理解工具包 -- [MMPose](https://github.com/open-mmlab/mmpose): OpenMMLab 姿态估计工具箱 -- [MMHuman3D](https://github.com/open-mmlab/mmhuman3d): OpenMMLab 人体参数化模型工具箱与测试基准 -- [MMSelfSup](https://github.com/open-mmlab/mmselfsup): OpenMMLab 自监督学习工具箱与测试基准 -- [MMRazor](https://github.com/open-mmlab/mmrazor): OpenMMLab 模型压缩工具箱与测试基准 -- [MMFewShot](https://github.com/open-mmlab/mmfewshot): OpenMMLab 少样本学习工具箱与测试基准 -- [MMAction2](https://github.com/open-mmlab/mmaction2): OpenMMLab 新一代视频理解工具箱 -- [MMTracking](https://github.com/open-mmlab/mmtracking): OpenMMLab 一体化视频目标感知平台 -- [MMFlow](https://github.com/open-mmlab/mmflow): OpenMMLab 光流估计工具箱与测试基准 -- [MMEditing](https://github.com/open-mmlab/mmediting): OpenMMLab 图像视频编辑工具箱 -- [MMGeneration](https://github.com/open-mmlab/mmgeneration): OpenMMLab 图片视频生成模型工具箱 -- [MMDeploy](https://github.com/open-mmlab/mmdeploy): OpenMMLab 模型部署框架 -- [MMEval](https://github.com/open-mmlab/mmeval): OpenMMLab 机器学习算法评测库 - -## 欢迎加入 OpenMMLab 社区 - -扫描下方的二维码可关注 OpenMMLab 团队的 [知乎官方账号](https://www.zhihu.com/people/openmmlab),加入 OpenMMLab 团队的 [官方交流 QQ 群](https://jq.qq.com/?_wv=1027&k=aCvMxdr3) - -
- -
- - -我们会在 OpenMMLab 社区为大家 - -- 📢 分享 AI 框架的前沿核心技术 -- 💻 解读 PyTorch 常用模块源码 -- 📰 发布 OpenMMLab 的相关新闻 -- 🚀 介绍 OpenMMLab 开发的前沿算法 -- 🏃 获取更高效的问题答疑和意见反馈 -- 🔥 提供与各行各业开发者充分交流的平台 - -干货满满 📘,等你来撩 💗,OpenMMLab 社区期待您的加入 👬 diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/model_design.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/model_design.md.txt" deleted file mode 100644 index 1b0c1dd96..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/model_design.md.txt" +++ /dev/null @@ -1,98 +0,0 @@ -# 模型设计相关说明 - -## YOLO 系列模型基类 - -下图为 RangeKing@GitHub 提供,非常感谢! - -
-基类 -
- -YOLO 系列算法大部分采用了统一的算法搭建结构,典型的如 Darknet + PAFPN。为了让用户快速理解 YOLO 系列算法架构,我们特意设计了如上图中的 BaseBackbone + BaseYOLONeck 结构。 - -抽象 BaseBackbone 的好处包括: - -1. 子类不需要关心 forward 过程,只要类似建造者模式一样构建模型即可。 -2. 可以通过配置实现定制插件功能,用户可以很方便的插入一些类似注意力模块。 -3. 所有子类自动支持 frozen 某些 stage 和 frozen bn 功能。 - -抽象 BaseYOLONeck 也有同样好处。 - -### BaseBackbone - -如上图所示,对于 P5 而言,BaseBackbone 包括 1 个 stem 层 + 4 个 stage 层的类似 ResNet 的基础结构,不同算法的主干网络继承 BaseBackbone,用户可以通过实现内部的 `build_xx` 方法,使用自定义的基础模块来构建每一层的内部结构。 - -### BaseYOLONeck - -与 `BaseBackbone` 的设计类似,我们为 MMYOLO 系列的 Neck 层进行了重构,主要分为 `Reduce 层`, `UpSample 层`,`TopDown 层`,`DownSample 层`,`BottomUP 层`以及`输出卷积层`,每一层结构都可以通过继承重写 `build_xx` 方法来实现自定义的内部结构。 - -### BaseDenseHead - -MMYOLO 系列沿用 MMDetection 中设计的 `BaseDenseHead` 作为其 Head 结构的基类,但是进一步拆分了 HeadModule. 以 YOLOv5 为例,其 [HeadModule](https://github.com/open-mmlab/mmyolo/blob/main/mmyolo/models/dense_heads/yolov5_head.py#L24) 中的 forward 实现代替了原有的 forward 实现。 - -## HeadModule - -
-HeadModule -
- -如上图所示,虚线部分为 [MMDetection](https://github.com/open-mmlab/mmdetection/blob/3.x/mmdet/models/dense_heads/base_dense_head.py) 中的实现,实线部分为 [MMYOLO](https://github.com/open-mmlab/mmyolo/blob/main/mmyolo/models/dense_heads/yolov5_head.py) 中的实现。MMYOLO版本与原实现相比具备具有以下优势: - -1. MMDetection 中将 `bbox_head` 拆分为 `assigner` + `box coder` + `sampler` 三个大的组件,但由于 3 个组件之间的传递为了通用性,需要封装额外的对象来处理,统一之后用户可以不用进行拆分。不刻意强求划分三大组件的好处为:不再需要对内部数据进行数据封装,简化了代码逻辑,减轻了社区使用难度和算法复现难度。 -2. 速度更快,用户在自定义实现算法时候,可以不依赖于原有框架,对部分代码进行深度优化。 - -总的来说,在 MMYOLO 中只需要做到将 `model` + `loss_by_feat` 部分解耦,用户就可以通过修改配置实现任意模型配合任意的 `loss_by_feat` 计算过程。例如将 YOLOv5 模型应用 YOLOX 的 `loss_by_feat` 等。 - -以 MMDetection 中 YOLOX 配置为例,其 Head 模块配置写法为: - -```python -bbox_head=dict( - type='YOLOXHead', - num_classes=80, - in_channels=128, - feat_channels=128, - stacked_convs=2, - strides=(8, 16, 32), - use_depthwise=False, - norm_cfg=dict(type='BN', momentum=0.03, eps=0.001), - act_cfg=dict(type='Swish'), - ... - loss_obj=dict( - type='CrossEntropyLoss', - use_sigmoid=True, - reduction='sum', - loss_weight=1.0), - loss_l1=dict(type='L1Loss', reduction='sum', loss_weight=1.0)), -train_cfg=dict(assigner=dict(type='SimOTAAssigner', center_radius=2.5)), -``` - -在 MMYOLO 中抽取 `head_module` 后,新的配置写法为: - -```python -bbox_head=dict( - type='YOLOXHead', - head_module=dict( - type='YOLOXHeadModule', - num_classes=80, - in_channels=256, - feat_channels=256, - widen_factor=widen_factor, - stacked_convs=2, - featmap_strides=(8, 16, 32), - use_depthwise=False, - norm_cfg=dict(type='BN', momentum=0.03, eps=0.001), - act_cfg=dict(type='SiLU', inplace=True), - ), - ... - loss_obj=dict( - type='mmdet.CrossEntropyLoss', - use_sigmoid=True, - reduction='sum', - loss_weight=1.0), - loss_bbox_aux=dict(type='mmdet.L1Loss', reduction='sum', loss_weight=1.0)), -train_cfg=dict( - assigner=dict( - type='mmdet.SimOTAAssigner', - center_radius=2.5, - iou_calculator=dict(type='mmdet.BboxOverlaps2D'))), -``` diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/rtmdet_description.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/rtmdet_description.md.txt" deleted file mode 100644 index 164a83a1c..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/rtmdet_description.md.txt" +++ /dev/null @@ -1,645 +0,0 @@ -# RTMDet 原理和实现全解析 - -## 0 简介 - -高性能,低延时的单阶段目标检测器 - -
-RTMDet_structure_v1.2 -
- -以上结构图由 RangeKing@github 绘制。 - -最近一段时间,开源界涌现出了大量的高精度目标检测项目,其中最突出的就是 YOLO 系列,OpenMMLab 也在与社区的合作下推出了 MMYOLO。 -在调研了当前 YOLO 系列的诸多改进模型后,MMDetection 核心开发者针对这些设计以及训练方式进行了经验性的总结,并进行了优化,推出了高精度、低延时的单阶段目标检测器 RTMDet, **R**eal-**t**ime **M**odels for Object **Det**ection -(**R**elease **t**o **M**anufacture) - -RTMDet 由 tiny/s/m/l/x 一系列不同大小的模型组成,为不同的应用场景提供了不同的选择。 -其中,RTMDet-x 在 52.6 mAP 的精度下达到了 300+ FPS 的推理速度。 - -```{note} -注:推理速度和精度测试(不包含 NMS)是在 1 块 NVIDIA 3090 GPU 上的 `TensorRT 8.4.3, cuDNN 8.2.0, FP16, batch size=1` 条件里测试的。 -``` - -而最轻量的模型 RTMDet-tiny,在仅有 4M 参数量的情况下也能够达到 40.9 mAP,且推理速度 \< 1 ms。 - -
-RTMDet_精度图 -
- -上图中的精度是和 300 epoch 训练下的公平对比,为不使用蒸馏的结果。 - -| | mAP | Params | Flops | Inference speed | -| -------------------------- | --------------- | -------------- | ------------ | --------------- | -| Baseline(YOLOX) | 40.2 | 9M | 13.4G | 1.2ms | -| + AdamW + Flat Cosine | 40.6 (+0.4) | 9M | 13.4G | 1.2ms | -| + CSPNeXt backbone & PAFPN | 41.8 (+1.2) | 10.07M (+1.07) | 14.8G (+1.4) | 1.22ms (+0.02) | -| + SepBNHead | 41.8 (+0) | 8.89M (-1.18) | 14.8G | 1.22ms | -| + Label Assign & Loss | 42.9 (+1.1) | 8.89M | 14.8G | 1.22ms | -| + Cached Mosaic & MixUp | 44.2 (+1.3) | 8.89M | 14.8G | 1.22ms | -| + RSB-pretrained backbone | **44.5 (+0.3)** | 8.89M | 14.8G | 1.22ms | - -- 官方开源地址: https://github.com/open-mmlab/mmdetection/blob/3.x/configs/rtmdet/README.md -- MMYOLO 开源地址: https://github.com/open-mmlab/mmyolo/blob/main/configs/rtmdet/README.md - -## 1 v1.0 算法原理和 MMYOLO 实现解析 - -### 1.1 数据增强模块 - -RTMDet 采用了多种数据增强的方式来增加模型的性能,主要包括单图数据增强: - -- **RandomResize 随机尺度变换** -- **RandomCrop 随机裁剪** -- **HSVRandomAug 颜色空间增强** -- **RandomFlip 随机水平翻转** - -以及混合类数据增强: - -- **Mosaic 马赛克** -- **MixUp 图像混合** - -数据增强流程如下: - -
-image -
- -其中 RandomResize 超参在大模型 M,L,X 和小模型 S, Tiny 上是不一样的,大模型由于参数较多,可以使用 large scale jitter 策略即参数为 (0.1,2.0),而小模型采用 stand scale jitter 策略即 (0.5, 2.0) 策略。 -MMDetection 开源库中已经对单图数据增强进行了封装,用户通过简单的修改配置即可使用库中提供的任何数据增强功能,且都是属于比较常规的数据增强,不需要特殊介绍。下面将具体介绍混合类数据增强的具体实现。 - -与 YOLOv5 不同的是,YOLOv5 认为在 S 和 Nano 模型上使用 MixUp 是过剩的,小模型不需要这么强的数据增强。而 RTMDet 在 S 和 Tiny 上也使用了 MixUp,这是因为 RTMDet 在最后 20 epoch 会切换为正常的 aug, 并通过训练证明这个操作是有效的。 并且 RTMDet 为混合类数据增强引入了 Cache 方案,有效地减少了图像处理的时间, 和引入了可调超参 `max_cached_images` ,当使用较小的 cache 时,其效果类似 `repeated augmentation`。具体介绍如下: - -| | Use cache | ms / 100 imgs | -| ------ | --------- | ------------- | -| Mosaic | | 87.1 | -| Mosaic | √ | **24.0** | -| MixUp | | 19.3 | -| MixUp | √ | **12.4** | - -| | RTMDet-s | RTMDet-l | -| ----------------------------- | -------- | -------- | -| Mosaic + MixUp + 20e finetune | 43.9 | **51.3** | - -#### 1.1.1 为图像混合数据增强引入 Cache - -Mosaic&MixUp 涉及到多张图片的混合,它们的耗时会是普通数据增强的 K 倍(K 为混入图片的数量)。 如在 YOLOv5 中,每次做 Mosaic 时, 4 张图片的信息都需要从硬盘中重新加载。 而 RTMDet 只需要重新载入当前的一张图片,其余参与混合增强的图片则从缓存队列中获取,通过牺牲一定内存空间的方式大幅提升了效率。 另外通过调整 cache 的大小以及 pop 的方式,也可以调整增强的强度。 - -
-data cache -
- -如图所示,cache 队列中预先储存了 N 张已加载的图像与标签数据,每一个训练 step 中只需加载一张新的图片及其标签数据并更新到 cache 队列中(cache 队列中的图像可重复,如图中出现两次 img3),同时如果 cache 队列长度超过预设长度,则随机 pop 一张图(为了 Tiny 模型训练更稳定,在 Tiny 模型中不采用随机 pop 的方式, 而是移除最先加入的图片),当需要进行混合数据增强时,只需要从 cache 中随机选择需要的图像进行拼接等处理,而不需要全部从硬盘中加载,节省了图像加载的时间。 - -```{note} -cache 队列的最大长度 N 为可调整参数,根据经验性的原则,当为每一张需要混合的图片提供十个缓存时,可以认为提供了足够的随机性,而 Mosaic 增强是四张图混合,因此 cache 数量默认 N=40, 同理 MixUp 的 cache 数量默认为20, tiny 模型需要更稳定的训练条件,因此其 cache 数量也为其余规格模型的一半( MixUp 为10,Mosaic 为20) -``` - -在具体实现中,MMYOLO 设计了 `BaseMiximageTransform` 类来支持多张图像混合数据增强: - -```python -if self.use_cached: - # Be careful: deep copying can be very time-consuming - # if results includes dataset. - dataset = results.pop('dataset', None) - self.results_cache.append(copy.deepcopy(results)) # 将当前加载的图片数据缓存到 cache 中 - if len(self.results_cache) > self.max_cached_images: - if self.random_pop: # 除了tiny模型,self.random_pop=True - index = random.randint(0, len(self.results_cache) - 1) - else: - index = 0 - self.results_cache.pop(index) - - if len(self.results_cache) <= 4: - return results -else: - assert 'dataset' in results - # Be careful: deep copying can be very time-consuming - # if results includes dataset. - dataset = results.pop('dataset', None) -``` - -#### 1.1.2 Mosaic - -Mosaic 是将 4 张图拼接为 1 张大图,相当于变相的增加了 batch size,具体步骤为: - -1. 根据索引随机从自定义数据集中再采样3个图像,可能重复 - -```python -def get_indexes(self, dataset: Union[BaseDataset, list]) -> list: - """Call function to collect indexes. - - Args: - dataset (:obj:`Dataset` or list): The dataset or cached list. - - Returns: - list: indexes. - """ - indexes = [random.randint(0, len(dataset)) for _ in range(3)] - return indexes -``` - -2. 随机选出 4 幅图像相交的中点。 - -```python -# mosaic center x, y -center_x = int( - random.uniform(*self.center_ratio_range) * self.img_scale[1]) -center_y = int( - random.uniform(*self.center_ratio_range) * self.img_scale[0]) -center_position = (center_x, center_y) -``` - -3. 根据采样的 index 读取图片并拼接, 拼接前会先进行 `keep-ratio` 的 resize 图片(即为最大边一定是 640)。 - -```python -# keep_ratio resize -scale_ratio_i = min(self.img_scale[0] / h_i, - self.img_scale[1] / w_i) -img_i = mmcv.imresize( - img_i, (int(w_i * scale_ratio_i), int(h_i * scale_ratio_i))) -``` - -4. 拼接后,把 bbox 和 label 全部拼接起来,然后对 bbox 进行裁剪但是不过滤(可能出现一些无效框) - -```python -mosaic_bboxes.clip_([2 * self.img_scale[0], 2 * self.img_scale[1]]) -``` - -更多的关于 Mosaic 原理的详情可以参考 [YOLOv5 原理和实现全解析](./yolov5_description.md) 中的 Mosaic 原理分析。 - -#### 1.1.3 MixUp - -RTMDet 的 MixUp 实现方式与 YOLOX 中一样,只不过增加了类似上文中提到的 cache 功能。 - -更多的关于 MixUp 原理的详情也可以参考 [YOLOv5 原理和实现全解析](./yolov5_description.md) 中的 MixUp 原理分析。 - -#### 1.1.4 强弱两阶段训练 - -Mosaic+MixUp 失真度比较高,持续用太强的数据增强对模型并不一定有益。YOLOX 中率先使用了强弱两阶段的训川练方式,但由于引入了旋转,切片导致 box 标注产生误差,需要在第二阶段引入额外的 L1oss 来纠正回归分支的性能。 - -为了使数据增强的方式更为通用,RTMDet 在前 280 epoch 使用不带旋转的 Mosaic+MixUp, 且通过混入 8 张图片来提升强度以及正样本数。后 20 epoch 使用比较小的学习率在比较弱的增强下进行微调,同时在 EMA 的作用下将参数缓慢更新至模型,能够得到比较大的提升。 - -| | RTMDet-s | RTMDet-l | -| ----------------------------- | -------- | -------- | -| LSJ + rand crop | 42.3 | 46.7 | -| Mosaic+MixUp | 41.9 | 49.8 | -| Mosaic + MixUp + 20e finetune | 43.9 | **51.3** | - -### 1.2 模型结构 - -RTMDet 模型整体结构和 [YOLOX](https://arxiv.org/abs/2107.08430) 几乎一致,由 `CSPNeXt` + `CSPNeXtPAFPN` + `共享卷积权重但分别计算 BN 的 SepBNHead` 构成。内部核心模块也是 `CSPLayer`,但对其中的 `Basic Block` 进行了改进,提出了 `CSPNeXt Block`。 - -#### 1.2.1 Backbone - -`CSPNeXt` 整体以 `CSPDarknet` 为基础,共 5 层结构,包含 1 个 `Stem Layer` 和 4 个 `Stage Layer`: - -- `Stem Layer` 是 3 层 3x3 kernel 的 `ConvModule` ,不同于之前的 `Focus` 模块或者 1 层 6x6 kernel 的 `ConvModule` 。 - -- `Stage Layer` 总体结构与已有模型类似,前 3 个 `Stage Layer` 由 1 个 `ConvModule` 和 1 个 `CSPLayer` 组成。第 4 个 `Stage Layer` 在 `ConvModule` 和 `CSPLayer` 中间增加了 `SPPF` 模块(MMDetection 版本为 `SPP` 模块)。 - -- 如模型图 Details 部分所示,`CSPLayer` 由 3 个 `ConvModule` + n 个 `CSPNeXt Block`(带残差连接) + 1 个 `Channel Attention` 模块组成。`ConvModule` 为 1 层 3x3 `Conv2d` + `BatchNorm` + `SiLU` 激活函数。`Channel Attention` 模块为 1 层 `AdaptiveAvgPool2d` + 1 层 1x1 `Conv2d` + `Hardsigmoid` 激活函数。`CSPNeXt Block` 模块在下节详细讲述。 - -- 如果想阅读 Backbone - `CSPNeXt` 的源码,可以 [**点此**](https://github.com/open-mmlab/mmyolo/blob/main/mmyolo/models/backbones/cspnext.py#L16-L171) 跳转。 - -#### 1.2.2 CSPNeXt Block - -Darknet (图 a)使用 1x1 与 3x3 卷积的 `Basic Block`。[YOLOv6](https://arxiv.org/abs/2209.02976) 、[YOLOv7](https://arxiv.org/abs/2207.02696) 、[PPYOLO-E](https://arxiv.org/abs/2203.16250) (图 b & c)使用了重参数化 Block。但重参数化的训练代价高,且不易量化,需要其他方式来弥补量化误差。 -RTMDet 则借鉴了最近比较热门的 [ConvNeXt](https://arxiv.org/abs/2201.03545) 、[RepLKNet](https://arxiv.org/abs/2203.06717) 的做法,为 `Basic Block` 加入了大 kernel 的 `depth-wise` 卷积(图 d),并将其命名为 `CSPNeXt Block`。 - -
-BasicBlock -
- -关于不同 kernel 大小的实验结果,如下表所示。 - -| Kernel size | params | flops | latency-bs1-TRT-FP16 / ms | mAP | -| ------------ | ---------- | --------- | ------------------------- | -------- | -| 3x3 | 50.8 | 79.61G | 2.1 | 50.0 | -| **5x5** | **50.92M** | **79.7G** | **2.11** | **50.9** | -| 7x7 | 51.1 | 80.34G | 2.73 | 51.1 | - -如果想阅读 `Basic Block` 和 `CSPNeXt Block` 源码,可以[**点此**](https://github.com/open-mmlab/mmdetection/blob/3.x/mmdet/models/layers/csp_layer.py#L79-L146)跳转。 - -#### 1.2.3 调整检测器不同 stage 间的 block 数 - -由于 `CSPNeXt Block` 内使用了 `depth-wise` 卷积,单个 block 内的层数增多。如果保持原有的 stage 内的 block 数,则会导致模型的推理速度大幅降低。 - -RTMDet 重新调整了不同 stage 间的 block 数,并调整了通道的超参,在保证了精度的情况下提升了推理速度。 - -关于不同 block 数的实验结果,如下表所示。 - -| Num blocks | params | flops | latency-bs1-TRT-FP16 / ms | mAP | -| ---------------------------------- | --------- | --------- | ------------------------- | -------- | -| L+3-9-9-3 | 53.4 | 86.28 | 2.6 | 51.4 | -| L+3-6-6-3 | 50.92M | 79.7G | 2.11 | 50.9 | -| **L+3-6-6-3 + channel attention** | **52.3M** | **79.9G** | **2.4** | **51.3** | - -最后不同大小模型的 block 数设置,可以参见[源码](https://github.com/open-mmlab/mmyolo/blob/main/mmyolo/models/backbones/cspnext.py#L50-L56) 。 - -#### 1.2.4 Neck - -Neck 模型结构和 YOLOX 几乎一样,只不过内部的 block 进行了替换。 - -#### 1.2.5 Backbone 与 Neck 之间的参数量和计算量的均衡 - -[EfficientDet](https://arxiv.org/abs/1911.09070) 、[NASFPN](https://arxiv.org/abs/1904.07392) 等工作在改进 Neck 时往往聚焦于如何修改特征融合的方式。 但引入过多的连接会增加检测器的延时,并增加内存开销。 - -所以 RTMDet 选择不引入额外的连接,而是改变 Backbone 与 Neck 间参数量的配比。该配比是通过手动调整 Backbone 和 Neck 的 `expand_ratio` 参数来实现的,其数值在 Backbone 和 Neck 中都为 0.5。`expand_ratio` 实际上是改变 `CSPLayer` 中各层通道数的参数(具体可见模型图 `CSPLayer` 部分)。如果想进行不同配比的实验,可以通过调整配置文件中的 [backbone {expand_ratio}](https://github.com/open-mmlab/mmyolo/blob/main/configs/rtmdet/rtmdet_l_8xb32-300e_coco.py#L32) 和 [neck {expand_ratio}](https://github.com/open-mmlab/mmyolo/blob/main/configs/rtmdet/rtmdet_l_8xb32-300e_coco.py#L45) 参数完成。 - -实验发现,当 Neck 在整个模型中的参数量占比更高时,延时更低,且对精度的影响很小。作者在直播答疑时回复,RTMDet 在 Neck 这一部分的实验参考了 [GiraffeDet](https://arxiv.org/abs/2202.04256) 的做法,但没有像 GiraffeDet 一样引入额外连接(详细可参见 [RTMDet 发布视频](https://www.bilibili.com/video/BV1e841147GD) 31分40秒左右的内容)。 - -关于不同参数量配比的实验结果,如下表所示。 - -| Model size | Backbone | Neck | params | flops | latency / ms | mAP | -| ----------- | -------- | ------- | ---------- | ---------- | ------------- | -------- | -| **S** | **47%** | **45%** | **8.54M** | **15.76G** | **1.21** | **43.9** | -| S | 63% | 29% | 9.01M | 15.85G | 1.37 | 43.7 | -| **L** | **47%** | **45%** | **50.92M** | **79.7G** | **2.11** | **50.9** | -| L | 63% | 29% | 57.43M | 93.73 | 2.57 | 51.0 | - -如果想阅读 Neck - `CSPNeXtPAFPN` 的源码,可以[**点此**](https://github.com/open-mmlab/mmyolo/blob/main/mmyolo/models/necks/cspnext_pafpn.py#L15-L201) 跳转。 - -#### 1.2.6 Head - -传统的 YOLO 系列都使用同一 Head 进行分类和回归。YOLOX 则将分类和回归分支解耦,PPYOLO-E 和 YOLOv6 则引入了 [TOOD](https://arxiv.org/abs/2108.07755) 中的结构。它们在不同特征层级之间都使用独立的 Head,因此 Head 在模型中也占有较多的参数量。 - -RTMDet 参考了 [NAS-FPN](https://arxiv.org/abs/1904.07392) 中的做法,使用了 `SepBNHead`,在不同层之间共享卷积权重,但是独立计算 BN(BatchNorm) 的统计量。 - -关于不同结构 Head 的实验结果,如下表所示。 - -| Head type | params | flops | latency / ms | mAP | -| ------------------ | --------- | --------- | ------------- | -------- | -| Fully-shared head | 52.32 | 80.23 | 2.44 | 48.0 | -| Separated head | 57.03 | 80.23 | 2.44 | 51.2 | -| **SepBN** **head** | **52.32** | **80.23** | **2.44** | **51.3** | - -同时,RTMDet 也延续了作者之前在 [NanoDet](https://zhuanlan.zhihu.com/p/306530300) 中的思想,使用 [Quality Focal Loss](https://arxiv.org/abs/2011.12885) ,并去掉 Objectness 分支,进一步将 Head 轻量化。 - -如果想阅读 Head 中 `RTMDetSepBNHeadModule` 的源码,可以[**点此**](https://github.com/open-mmlab/mmyolo/blob/main/mmyolo/models/dense_heads/rtmdet_head.py#L24-L189) 跳转。 - -```{note} -注:MMYOLO 和 MMDetection 中 Neck 和 Head 的具体实现稍有不同。 -``` - -### 1.3 正负样本匹配策略 - -正负样本匹配策略或者称为标签匹配策略 `Label Assignment` 是目标检测模型训练中最核心的问题之一, 更好的标签匹配策略往往能够使得网络更好学习到物体的特征以提高检测能力。 - -早期的样本标签匹配策略一般都是基于 `空间以及尺度信息的先验` 来决定样本的选取。 典型案例如下: - -- `FCOS` 中先限定网格中心点在 `GT` 内筛选后然后再通过不同特征层限制尺寸来决定正负样本 -- `RetinaNet` 则是通过 `Anchor` 与 `GT` 的最大 `IOU` 匹配来划分正负样本 -- `YOLOV5` 的正负样本则是通过样本的宽高比先筛选一部分, 然后通过位置信息选取 `GT` 中心落在的 `Grid` 以及临近的两个作为正样本 - -但是上述方法都是属于基于 `先验` 的静态匹配策略, 就是样本的选取方式是根据人的经验规定的。 不会随着网络的优化而进行自动优化选取到更好的样本, 近些年涌现了许多优秀的动态标签匹配策略: - -- `OTA` 提出使用 `Sinkhorn` 迭代求解匹配中的最优传输问题 -- `YOLOX` 中使用 `OTA` 的近似算法 `SimOTA` , `TOOD` 将分类分数以及 `IOU` 相乘计算 `Cost` 矩阵进行标签匹配等等 - -这些算法将 `预测的 Bboxes 与 GT 的 IOU ` 和 `分类分数` 或者是对应 `分类 Loss` 和 `回归 Loss` 拿来计算 `Matching Cost` 矩阵再通过 `top-k` 的方式动态决定样本选取以及样本个数。通过这种方式, -在网络优化的过程中会自动选取对分类或者回归更加敏感有效的位置的样本, 它不再只依赖先验的静态的信息, 而是使用当前的预测结果去动态寻找最优的匹配, 只要模型的预测越准确, 匹配算法求得的结果也会更优秀。但是在网络训练的初期, 网络的分类以及回归是随机初始化, 这个时候还是需要 `先验` 来约束, 以达到 `冷启动` 的效果。 - -`RTMDet` 作者也是采用了动态的 `SimOTA` 做法,不过其对动态的正负样本分配策略进行了改进。 之前的动态匹配策略( `HungarianAssigner` 、`OTA` )往往使用与 `Loss` 完全一致的代价函数作为匹配的依据,但我们经过实验发现这并不一定时最优的。 使用更多 `Soften` 的 `Cost` 以及先验,能够提升性能。 - -#### 1.3.1 Bbox 编解码过程 - -RTMDet 的 BBox Coder 采用的是 `mmdet.DistancePointBBoxCoder`。 - -该类的 docstring 为 `This coder encodes gt bboxes (x1, y1, x2, y2) into (top, bottom, left, right) and decode it back to the original.` - -编码器将 gt bboxes (x1, y1, x2, y2) 编码为 (top, bottom, left, right),并且解码至原图像上。 - -MMDet 编码的核心源码: - -```python -def bbox2distance(points: Tensor, bbox: Tensor, ...) -> Tensor: - """ - points (Tensor): 相当于 scale 值 stride ,且每个预测点仅为一个正方形 anchor 的 anchor point [x, y],Shape (n, 2) or (b, n, 2). - bbox (Tensor): Bbox 为乘上 stride 的网络预测值,格式为 xyxy,Shape (n, 4) or (b, n, 4). - """ - # 计算点距离四边的距离 - left = points[..., 0] - bbox[..., 0] - top = points[..., 1] - bbox[..., 1] - right = bbox[..., 2] - points[..., 0] - bottom = bbox[..., 3] - points[..., 1] - - ... - - return torch.stack([left, top, right, bottom], -1) -``` - -MMDetection 解码的核心源码: - -```python -def distance2bbox(points: Tensor, distance: Tensor, ...) -> Tensor: - """ - 通过距离反算 bbox 的 xyxy - points (Tensor): 正方形的预测 anchor 的 anchor point [x, y],Shape (B, N, 2) or (N, 2). - distance (Tensor): 距离四边的距离。(left, top, right, bottom). Shape (B, N, 4) or (N, 4) - """ - - # 反算 bbox xyxy - x1 = points[..., 0] - distance[..., 0] - y1 = points[..., 1] - distance[..., 1] - x2 = points[..., 0] + distance[..., 2] - y2 = points[..., 1] + distance[..., 3] - - bboxes = torch.stack([x1, y1, x2, y2], -1) - - ... - - return bboxes -``` - -#### 1.3.2 匹配策略 - -`RTMDet` 提出了 `Dynamic Soft Label Assigner` 来实现标签的动态匹配策略, 该方法主要包括使用 **位置先验信息损失** , **样本回归损失** , **样本分类损失** , 同时对三个损失进行了 `Soft` 处理进行参数调优, 以达到最佳的动态匹配效果。 - -该方法 Matching Cost 矩阵由如下损失构成: - -```python -cost_matrix = soft_cls_cost + iou_cost + soft_center_prior -``` - -1. Soft_Center_Prior - -```{math} -C\_{center} = \\alpha^{|x\_{pred}-x\_{gt}|-\\beta} -``` - -```python -# valid_prior Tensor[N,4] 表示anchor point -# 4分别表示 x, y, 以及对应的特征层的 stride, stride -gt_center = (gt_bboxes[:, :2] + gt_bboxes[:, 2:]) / 2.0 -valid_prior = priors[valid_mask] -strides = valid_prior[:, 2] -# 计算gt与anchor point的中心距离并转换到特征图尺度 -distance = (valid_prior[:, None, :2] - gt_center[None, :, :] - ).pow(2).sum(-1).sqrt() / strides[:, None] -# 以10为底计算位置的软化损失,限定在gt的6个单元格以内 -soft_center_prior = torch.pow(10, distance - 3) -``` - -2. IOU_Cost - -```{math} -C\_{reg} = -log(IOU) -``` - -```python -# 计算回归 bboxes 和 gts 的 iou -pairwise_ious = self.iou_calculator(valid_decoded_bbox, gt_bboxes) -# 将 iou 使用 log 进行 soft , iou 越小 cost 更小 -iou_cost = -torch.log(pairwise_ious + EPS) * 3 -``` - -3. Soft_Cls_Cost - -```{math} -C\_{cls} = CE(P,Y\_{soft}) \*(Y\_{soft}-P)^2 -``` - -```python -# 生成分类标签 - gt_onehot_label = ( - F.one_hot(gt_labels.to(torch.int64), - pred_scores.shape[-1]).float().unsqueeze(0).repeat( - num_valid, 1, 1)) -valid_pred_scores = valid_pred_scores.unsqueeze(1).repeat(1, num_gt, 1) -# 不单单将分类标签为01,而是换成与 gt 的 iou -soft_label = gt_onehot_label * pairwise_ious[..., None] -# 使用 quality focal loss 计算分类损失 cost ,与实际的分类损失计算保持一致 -scale_factor = soft_label - valid_pred_scores.sigmoid() -soft_cls_cost = F.binary_cross_entropy_with_logits( - valid_pred_scores, soft_label, - reduction='none') * scale_factor.abs().pow(2.0) -soft_cls_cost = soft_cls_cost.sum(dim=-1) -``` - -通过计算上述三个损失的和得到最终的 `cost_matrix` 后, 再使用 `SimOTA` 决定每一个 `GT` 匹配的样本的个数并决定最终的样本。具体操作如下所示: - -1. 首先通过自适应计算每一个 `gt` 要选取的样本数量: 取每一个 `gt` 与所有 `bboxes` 前 `13` 大的 `iou`, 得到它们的和取整后作为这个 `gt` 的 `样本数目` , 最少为 `1` 个, 记为 `dynamic_ks`。 -2. 对于每一个 `gt` , 将其 `cost_matrix` 矩阵前 `dynamic_ks` 小的位置作为该 `gt` 的正样本。 -3. 对于某一个 `bbox`, 如果被匹配到多个 `gt` 就将与这些 `gts` 的 `cost_marix` 中最小的那个作为其 `label`。 - -在网络训练初期,因参数初始化,回归和分类的损失值 `Cost` 往往较大, 这时候 `IOU` 比较小, 选取的样本较少,主要起作用的是 `Soft_center_prior` 也就是位置信息,优先选取位置距离 `GT` 比较近的样本作为正样本,这也符合人们的理解,在网络前期给少量并且有足够质量的样本,以达到冷启动。 -当网络进行训练一段时间过后,分类分支和回归分支都进行了一定的优化后,这时 `IOU` 变大, 选取的样本也逐渐增多,这时网络也有能力学习到更多的样本,同时因为 `IOU_Cost` 以及 `Soft_Cls_Cost` 变小,网络也会动态的找到更有利优化分类以及回归的样本点。 - -在 `Resnet50-1x` 的三种损失的消融实验: - -| Soft_cls_cost | Soft_center_prior | Log_IoU_cost | mAP | -| :------------ | :---------------- | :----------- | :--- | -| × | × | × | 39.9 | -| √ | × | × | 40.3 | -| √ | √ | × | 40.8 | -| √ | √ | √ | 41.3 | - -与其他主流 `Assign` 方法在 `Resnet50-1x` 的对比实验: - -| method | mAP | -| :-----------: | :--- | -| ATSS | 39.2 | -| PAA | 40.4 | -| OTA | 40.7 | -| TOOD(w/o TAH) | 40.7 | -| Ours | 41.3 | - -无论是 `Resnet50-1x` 还是标准的设置下,还是在`300epoch` + `havy augmentation`, 相比于 `SimOTA` 、 `OTA` 以及 `TOOD` 中的 `TAL` 均有提升。 - -| 300e + Mosaic & MixUP | mAP | -| :-------------------- | :--- | -| RTMDet-s + SimOTA | 43.2 | -| RTMDet-s + DSLA | 44.5 | - -### 1.4 Loss 设计 - -参与 Loss 计算的共有两个值:`loss_cls` 和 `loss_bbox`,其各自使用的 Loss 方法如下: - -- `loss_cls`:`mmdet.QualityFocalLoss` -- `loss_bbox`:`mmdet.GIoULoss` - -权重比例是:`loss_cls` : `loss_bbox` = `1 : 2` - -#### QualityFocalLoss - -Quality Focal Loss (QFL) 是 [Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Detection](https://arxiv.org/abs/2006.04388) 的一部分。 - -
-image -
- -普通的 Focal Loss 公式: - -```{math} -{FL}(p) = -(1-p_t)^\gamma\log(p_t),p_t = \begin{cases} -p, & {when} \ y = 1 \\ -1 - p, & {when} \ y = 0 -\end{cases} -``` - -其中 {math}`y\in{1,0}` 指定真实类,{math}`p\in[0,1]` 表示标签 {math}`y = 1` 的类估计概率。{math}`\gamma` 是可调聚焦参数。具体来说,FL 由标准交叉熵部分 {math}`-\log(p_t)` 和动态比例因子部分 {math}`-(1-p_t)^\gamma` 组成,其中比例因子 {math}`-(1-p_t)^\gamma` 在训练期间自动降低简单类对于 loss 的比重,并且迅速将模型集中在困难类上。 - -首先 {math}`y = 0` 表示质量得分为 0 的负样本,{math}`0 < y \leq 1` 表示目标 IoU 得分为 y 的正样本。为了针对连续的标签,扩展 FL 的两个部分: - -1. 交叉熵部分 {math}`-\log(p_t)` 扩展为完整版本 {math}`-((1-y)\log(1-\sigma)+y\log(\sigma))` -2. 比例因子部分 {math}`-(1-p_t)^\gamma` 被泛化为估计 {math}`\gamma` 与其连续标签 {math}`y` 的绝对距离,即 {math}`|y-\sigma|^\beta (\beta \geq 0)` 。 - -结合上面两个部分之后,我们得出 QFL 的公式: - -```{math} -{QFL}(\sigma) = -|y-\sigma|^\beta((1-y)\log(1-\sigma)+y\log(\sigma)) -``` - -具体作用是:可以将离散标签的 `focal loss` 泛化到连续标签上,将 bboxes 与 gt 的 IoU 的作为分类分数的标签,使得分类分数为表征回归质量的分数。 - -MMDetection 实现源码的核心部分: - -```python -@weighted_loss -def quality_focal_loss(pred, target, beta=2.0): - """ - pred (torch.Tensor): 用形状(N,C)联合表示预测分类和质量(IoU),C是类的数量。 - target (tuple([torch.Tensor])): 目标类别标签的形状为(N,),目标质量标签的形状是(N,,)。 - beta (float): 计算比例因子的 β 参数. - """ - ... - - # label表示类别id,score表示质量分数 - label, score = target - - # 负样本质量分数0来进行监督 - pred_sigmoid = pred.sigmoid() - scale_factor = pred_sigmoid - zerolabel = scale_factor.new_zeros(pred.shape) - - # 计算交叉熵部分的值 - loss = F.binary_cross_entropy_with_logits( - pred, zerolabel, reduction='none') * scale_factor.pow(beta) - - # 得出 IoU 在区间 (0,1] 的 bbox - # FG cat_id: [0, num_classes -1], BG cat_id: num_classes - bg_class_ind = pred.size(1) - pos = ((label >= 0) & (label < bg_class_ind)).nonzero().squeeze(1) - pos_label = label[pos].long() - - # 正样本由 IoU 范围在 (0,1] 的 bbox 来监督 - # 计算动态比例因子 - scale_factor = score[pos] - pred_sigmoid[pos, pos_label] - - # 计算两部分的 loss - loss[pos, pos_label] = F.binary_cross_entropy_with_logits( - pred[pos, pos_label], score[pos], - reduction='none') * scale_factor.abs().pow(beta) - - # 得出最终 loss - loss = loss.sum(dim=1, keepdim=False) - return loss -``` - -#### GIoULoss - -论文:[Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression](https://arxiv.org/abs/1902.09630) - -GIoU Loss 用于计算两个框重叠区域的关系,重叠区域越大,损失越小,反之越大。而且 GIoU 是在 \[0,2\] 之间,因为其值被限制在了一个较小的范围内,所以网络不会出现剧烈的波动,证明了其具有比较好的稳定性。 - -下图是基本的实现流程图: - -
-image -
- -MMDetection 实现源码的核心部分: - -```python -def bbox_overlaps(bboxes1, bboxes2, mode='iou', is_aligned=False, eps=1e-6): - ... - - # 求两个区域的面积 - area1 = (bboxes1[..., 2] - bboxes1[..., 0]) * ( - bboxes1[..., 3] - bboxes1[..., 1]) - area2 = (bboxes2[..., 2] - bboxes2[..., 0]) * ( - bboxes2[..., 3] - bboxes2[..., 1]) - - if is_aligned: - # 得出两个 bbox 重合的左上角 lt 和右下角 rb - lt = torch.max(bboxes1[..., :2], bboxes2[..., :2]) # [B, rows, 2] - rb = torch.min(bboxes1[..., 2:], bboxes2[..., 2:]) # [B, rows, 2] - - # 求重合面积 - wh = fp16_clamp(rb - lt, min=0) - overlap = wh[..., 0] * wh[..., 1] - - if mode in ['iou', 'giou']: - ... - else: - union = area1 - if mode == 'giou': - # 得出两个 bbox 最小凸闭合框的左上角 lt 和右下角 rb - enclosed_lt = torch.min(bboxes1[..., :2], bboxes2[..., :2]) - enclosed_rb = torch.max(bboxes1[..., 2:], bboxes2[..., 2:]) - else: - ... - - # 求重合面积 / gt bbox 面积 的比率,即 IoU - eps = union.new_tensor([eps]) - union = torch.max(union, eps) - ious = overlap / union - - ... - - # 求最小凸闭合框面积 - enclose_wh = fp16_clamp(enclosed_rb - enclosed_lt, min=0) - enclose_area = enclose_wh[..., 0] * enclose_wh[..., 1] - enclose_area = torch.max(enclose_area, eps) - - # 计算 giou - gious = ious - (enclose_area - union) / enclose_area - return gious - -@weighted_loss -def giou_loss(pred, target, eps=1e-7): - gious = bbox_overlaps(pred, target, mode='giou', is_aligned=True, eps=eps) - loss = 1 - gious - return loss -``` - -### 1.5 优化策略和训练过程 - -
- -
- -### 1.6 推理和后处理过程 - -
- -
- -**(1) 特征图输入** - -预测的图片输入大小为 640 x 640, 通道数为 3 ,经过 CSPNeXt, CSPNeXtPAFPN 层的 8 倍、16 倍、32 倍下采样得到 80 x 80, 40 x 40, 20 x 20 三个尺寸的特征图。以 rtmdet-l 模型为例,此时三层通道数都为 256,经过 `bbox_head` 层得到两个分支,分别为 `rtm_cls` 类别预测分支,将通道数从 256 变为 80,80 对应所有类别数量; `rtm_reg` 边框回归分支将通道数从 256 变为 4,4 代表框的坐标。 - -**(2) 初始化网格** - -根据特征图尺寸初始化三个网格,大小分别为 6400 (80 x 80)、1600 (40 x 40)、400 (20 x 20),如第一个层 shape 为 torch.Size(\[ 6400, 2 \]),最后一个维度是 2,为网格点的横纵坐标,而 6400 表示当前特征层的网格点数量。 - -**(3) 维度变换** - -经过 `_predict_by_feat_single` 函数,将从 head 提取的单一图像的特征转换为 bbox 结果输入,得到三个列表 `cls_score_list`,`bbox_pred_list`,`mlvl_priors`,详细大小如图所示。之后分别遍历三个特征层,分别对 class 类别预测分支、bbox 回归分支进行处理。以第一层为例,对 bbox 预测分支 \[ 4,80,80 \] 维度变换为 \[ 6400,4 \],对类别预测分支 \[ 80,80,80 \] 变化为 \[ 6400,80 \],并对其做归一化,确保类别置信度在 0 - 1 之间。 - -**(4) 阈值过滤** - -先使用一个 `nms_pre` 操作,先过滤大部分置信度比较低的预测结果(比如 `score_thr` 阈值设置为 0.05,则去除当前预测置信度低于 0.05 的结果),然后得到 bbox 坐标、所在网格的坐标、置信度、标签的信息。经过三个特征层遍历之后,分别整合这三个层得到的的四个信息放入 results 列表中。 - -**(5) 还原到原图尺度** - -最后将网络的预测结果映射到整图当中,得到 bbox 在整图中的坐标值 - -**(6) NMS** - -进行 nms 操作,最终预测得到的返回值为经过后处理的每张图片的检测结果,包含分类置信度,框的 labels,框的四个坐标 - -## 2 总结 - -本文对 RTMDet 原理和在 MMYOLO 实现进行了详细解析,希望能帮助用户理解算法实现过程。同时请注意:由于 RTMDet 本身也在不断更新, -本开源库也会不断迭代,请及时阅读和同步最新版本。 diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/yolov5_description.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/yolov5_description.md.txt" deleted file mode 100644 index b4e04d18b..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/MMYOLO\345\256\236\347\216\260/yolov5_description.md.txt" +++ /dev/null @@ -1,633 +0,0 @@ -# YOLOv5 原理和实现全解析 - -## 0 简介 - -
-YOLOv5_structure_v3.4 -
- -以上结构图由 RangeKing@github 绘制。 - -YOLOv5 是一个面向实时工业应用而开源的目标检测算法,受到了广泛关注。我们认为让 YOLOv5 爆火的原因不单纯在于 YOLOv5 算法本身的优异性,更多的在于开源库的实用和鲁棒性。简单来说 YOLOv5 开源库的主要特点为: - -1. **友好和完善的部署支持** -2. **算法训练速度极快**,在 300 epoch 情况下训练时长和大部分 one-stage 算法如 RetinaNet、ATSS 和 two-stage 算法如 Faster R-CNN 在 12 epoch 的训练时间接近 -3. 框架进行了**非常多的 corner case 优化**,功能和文档也比较丰富 - -本文将从 YOLOv5 算法本身原理讲起,然后重点分析 MMYOLO 中的实现。关于 YOLOv5 的使用指南和速度等对比请阅读本文的后续内容。 - -希望本文能够成为你入门和掌握 YOLOv5 的核心文档。由于 YOLOv5 本身也在不断迭代更新,我们也会不断的更新本文档。请注意阅读最新版本。 - -MMYOLO 实现配置:https://github.com/open-mmlab/mmyolo/blob/main/configs/yolov5/ - -YOLOv5 官方开源库地址:https://github.com/ultralytics/yolov5 - -## 1 v6.1 算法原理和 MMYOLO 实现解析 - -YOLOv5 官方 release 地址:https://github.com/ultralytics/yolov5/releases/tag/v6.1 - -
-YOLOv5精度图 -
- -
-YOLOv5精度速度图 -
- -性能如上表所示。YOLOv5 有 P5 和 P6 两个不同训练输入尺度的模型,P6 即为 1280x1280 输入的大模型,通常用的是 P5 常规模型,输入尺寸是 640x640 。本文解读的也是 P5 模型结构。 - -通常来说,目标检测算法都可以分成数据增强、模型结构、loss 计算等组件,YOLOv5 也一样,如下所示: - -
-训练测试策略 -
- -下面将从原理和结合 MMYOLO 的具体实现方面进行简要分析。 - -### 1.1 数据增强模块 - -YOLOv5 目标检测算法中使用的数据增强比较多,包括: - -- **Mosaic 马赛克** -- **RandomAffine 随机仿射变换** -- **MixUp** -- **图像模糊等采用 Albu 库实现的变换** -- **HSV 颜色空间增强** -- **随机水平翻转** - -其中 Mosaic 数据增强概率为 1,表示一定会触发,而对于 small 和 nano 两个版本的模型不使用 MixUp,其他的 l/m/x 系列模型则采用了 0.1 的概率触发 MixUp。小模型能力有限,一般不会采用 MixUp 等强数据增强策略。 - -其核心的 Mosaic + RandomAffine + MixUp 过程简要绘制如下: - -
-image -
- -下面对其进行简要分析。 - -#### 1.1.1 Mosaic 马赛克 - -
-image -
- -Mosaic 属于混合类数据增强,因为它在运行时候需要 4 张图片拼接,变相的相当于增加了训练的 batch size。其运行过程简要概况为: - -1. 随机生成拼接后 4 张图的交接中心点坐标,此时就相当于确定了 4 张拼接图片的交接点 -2. 随机选出另外 3 张图片的索引以及读取对应的标注 -3. 对每张图片采用保持宽高比的 resize 操作将其缩放到指定大小 -4. 按照上下左右规则,计算每张图片在待输出图片中应该放置的位置,因为图片可能出界故还需要计算裁剪坐标 -5. 利用裁剪坐标将缩放后的图片裁剪,然后贴到前面计算出的位置,其余位置全部补 114 像素值 -6. 对每张图片的标注也进行相应处理 - -注意:由于拼接了 4 张图,所以输出图片面积会扩大 4 倍,从 640x640 变成 1280x1280,因此要想恢复为 640x640, -必须要再接一个 **RandomAffine 随机仿射变换,否则图片面积就一直是扩大 4 倍的**。 - -#### 1.1.2 RandomAffine 随机仿射变换 - -
-image -
- -随机仿射变换有两个目的: - -1. 对图片进行随机几何仿射变换 -2. 将 Mosaic 输出的扩大 4 倍的图片还原为 640x640 尺寸 - -随机仿射变换包括平移、旋转、缩放、错切等几何增强操作,同时由于 Mosaic 和 RandomAffine 属于比较强的增强操作,会引入较大噪声,因此需要对增强后的标注进行处理,过滤规则为: - -1. 增强后的 gt bbox 宽高要大于 wh_thr -2. 增强后的 gt bbox 面积和增强前的 gt bbox 面积比要大于 ar_thr,防止增强太严重 -3. 最大宽高比要小于 area_thr,防止宽高比改变太多 - -由于旋转后标注框会变大导致不准确,因此目标检测里面很少会使用旋转数据增强。 - -#### 1.1.3 MixUp - -
-image -
- -MixUp 和 Mosaic 类似也属于混合图片类增强方法。随机选出另外一张图后将两图再随机混合。具体实现方法有多种,常见的做法是要么将 label 直接拼接起来,要么将 label 也采用 alpha 方法混合。原作者的做法非常简单,对 label 即直接拼接,而图片通过分布采样混合。 - -需要特别注意的是: -**YOLOv5 实现的 MixUp 中,随机出来的另一张图也需要经过 Mosaic 马赛克 + RandomAffine 随机仿射变换 的增强后才能混合。这个和其他开源库实现可能不太一样**。 - -#### 1.1.4 图像模糊和其他数据增强策略 - -
-image -
- -剩下的数据增强包括 - -- **图像模糊等采用 Albu 库实现的变换** -- **HSV 颜色空间增强** -- **随机水平翻转** - -MMDetection 开源库中已经对 Albu 第三方数据增强库进行了封装,使用户可以简单的通过配置即可使用 Albu 库中提供的任何数据增强功能。而 HSV 颜色空间增强和随机水平翻转都是属于比较常规的数据增强,不需要特殊介绍。 - -#### 1.1.5 MMYOLO 实现解析 - -常规的单图数据增强例如随机翻转等比较容易实现,而 Mosaic 类的混合数据增强则不太容易。在 MMDetection 复现的 YOLOX 算法中提出了 MultiImageMixDataset 数据集包装器的概念,其实现过程如下: - -
-image -
- -对于 Mosaic 等混合类数据增强策略,会需要额外实现一个 `get_indexes` 方法来获取其他图片索引,然后用得到的 4 张图片信息就可以进行 Mosaic 增强了。 -以 MMDetection 中实现的 YOLOX 为例,其配置文件写法如下所示: - -```python -train_pipeline = [ - dict(type='Mosaic', img_scale=img_scale, pad_val=114.0), - dict( - type='RandomAffine', - scaling_ratio_range=(0.1, 2), - border=(-img_scale[0] // 2, -img_scale[1] // 2)), - dict( - type='MixUp', - img_scale=img_scale, - ratio_range=(0.8, 1.6), - pad_val=114.0), - ... -] - -train_dataset = dict( - # use MultiImageMixDataset wrapper to support mosaic and mixup - type='MultiImageMixDataset', - dataset=dict( - type='CocoDataset', - pipeline=[ - dict(type='LoadImageFromFile'), - dict(type='LoadAnnotations', with_bbox=True) - ]), - pipeline=train_pipeline) -``` - -MultiImageMixDataset 数据集包装器传入一个包括 Mosaic 和 RandAffine 等数据增强,而 CocoDataset 中也需要传入一个包括图片和标注加载的 pipeline。通过这种方式就可以快速的实现混合类数据增强。 - -但是上述实现有一个缺点: -**对于不熟悉 MMDetection 的用户来说,其经常会忘记 Mosaic 必须要和 MultiImageMixDataset 配合使用,否则会报错,而且这样会加大复杂度和理解难度**。 - -为了解决这个问题,在 MMYOLO 中我们进一步进行了简化。直接让 pipeline 能够获取到 dataset 对象,此时就可以将 Mosaic 等混合类数据增强的实现和使用变成和随机翻转一样。 -此时在 MMYOLO 中 YOLOX 的配置写法变成如下所示: - -```python -pre_transform = [ - dict(type='LoadImageFromFile'), - dict(type='LoadAnnotations', with_bbox=True) -] - -train_pipeline = [ - *pre_transform, - dict( - type='Mosaic', - img_scale=img_scale, - pad_val=114.0, - pre_transform=pre_transform), - dict( - type='mmdet.RandomAffine', - scaling_ratio_range=(0.1, 2), - border=(-img_scale[0] // 2, -img_scale[1] // 2)), - dict( - type='YOLOXMixUp', - img_scale=img_scale, - ratio_range=(0.8, 1.6), - pad_val=114.0, - pre_transform=pre_transform), - ... -] -``` - -这样就不再需要 MultiImageMixDataset 了,使用和理解上会更加简单。 - -回到 YOLOv5 配置上,因为 YOLOv5 实现的 MixUp 中,随机选出来的另一张图也需要经过 Mosaic 马赛克+RandomAffine 随机仿射变换 增强后才能混合,故YOLOv5-m 数据增强配置如下所示: - -```python -pre_transform = [ - dict(type='LoadImageFromFile'), - dict(type='LoadAnnotations', with_bbox=True) -] - -mosaic_transform= [ - dict( - type='Mosaic', - img_scale=img_scale, - pad_val=114.0, - pre_transform=pre_transform), - dict( - type='YOLOv5RandomAffine', - max_rotate_degree=0.0, - max_shear_degree=0.0, - scaling_ratio_range=(0.1, 1.9), # scale = 0.9 - border=(-img_scale[0] // 2, -img_scale[1] // 2), - border_val=(114, 114, 114)) -] - -train_pipeline = [ - *pre_transform, - *mosaic_transform, - dict( - type='YOLOv5MixUp', - prob=0.1, - pre_transform=[ - *pre_transform, - *mosaic_transform - ]), - ... -] -``` - -### 1.2 网络结构 - -本小结由 RangeKing@github 撰写,非常感谢!!! - -YOLOv5 网络结构是标准的 `CSPDarknet` + `PAFPN` + `非解耦 Head`。 - -YOLOv5 网络结构大小由 `deepen_factor` 和 `widen_factor` 两个参数决定。其中 `deepen_factor` 控制网络结构深度,即 `CSPLayer` 中 `DarknetBottleneck` 模块堆叠的数量;`widen_factor` 控制网络结构宽度,即模块输出特征图的通道数。以 YOLOv5-l 为例,其 `deepen_factor = widen_factor = 1.0` ,整体结构图如上所示。 - -图的上半部分为模型总览;下半部分为具体网络结构,其中的模块均标有序号,方便用户与 YOLOv5 官方仓库的配置文件对应;中间部分为各子模块的具体构成。 - -如果想使用 netron 可视化网络结构图细节,可以直接在 netron 中将 MMDeploy 导出的 ONNX 文件格式文件打开。 - -#### 1.2.1 Backbone - -在 MMYOLO 中 `CSPDarknet` 继承自 `BaseBackbone`,整体结构和 `ResNet` 类似,共 5 层结构,包含 1 个 `Stem Layer` 和 4 个 `Stage Layer`: - -- `Stem Layer` 是 1 个 6x6 kernel 的 `ConvModule`,相较于 v6.1 版本之前的 `Focus` 模块更加高效。 -- 前 3 个 `Stage Layer` 均由 1 个 `ConvModule` 和 1 个 `CSPLayer` 组成。如上图 Details 部分所示。 - 其中 `ConvModule` 为 3x3的 `Conv2d` + `BatchNorm` + `SiLU 激活函数`。`CSPLayer` 即 YOLOv5 官方仓库中的 C3 模块,由 3 个 `ConvModule` + n 个 `DarknetBottleneck`(带残差连接) 组成。 -- 第 4 个 `Stage Layer` 在最后增加了 `SPPF` 模块。`SPPF` 模块是将输入串行通过多个 5x5 大小的 `MaxPool2d` 层,与 `SPP` 模块效果相同,但速度更快。 -- P5 模型结构会在 `Stage Layer` 2-4 之后分别输出一个特征图进入 `Neck` 结构。以 640x640 输入图片为例,其输出特征为 (B,256,80,80)、 (B,512,40,40) 和 (B,1024,20,20),对应的 stride 分别为 8/16/32。 - -#### 1.2.2 Neck - -YOLOv5 官方仓库的配置文件中并没有 Neck 部分,为方便用户与其他目标检测网络结构相对应,我们将官方仓库的 `Head` 拆分成 `PAFPN` 和 `Head` 两部分。 - -基于 `BaseYOLONeck` 结构,YOLOv5 `Neck` 也是遵循同一套构建流程,对于不存在的模块,我们采用 `nn.Identity` 代替。 - -Neck 模块输出的特征图和 Backbone 完全一致即为 (B,256,80,80)、 (B,512,40,40) 和 (B,1024,20,20)。 - -#### 1.2.3 Head - -YOLOv5 Head 结构和 YOLOv3 完全一样,为 `非解耦 Head`。Head 模块只包括 3 个不共享权重的卷积,用于将输入特征图进行变换而已。 - -前面的 PAFPN 依然是输出 3 个不同尺度的特征图,shape 为 (B,256,80,80)、 (B,512,40,40) 和 (B,1024,20,20)。 -由于 YOLOv5 是非解耦输出,即分类和 bbox 检测等都是在同一个卷积的不同通道中完成。以 COCO 80 类为例,在输入为 640x640 分辨率情况下,其 Head 模块输出的 shape 分别为 (B, 3x(4+1+80),80,80), (B, 3x(4+1+80),40,40) 和 (B, 3x(4+1+80),20,20)。其中 3 表示 3 个 anchor,4 表示 bbox 预测分支,1 表示 obj 预测分支,80 表示 COCO 数据集类别预测分支。 - -### 1.3 正负样本匹配策略 - -正负样本匹配策略的核心是确定预测特征图的所有位置中哪些位置应该是正样本,哪些是负样本,甚至有些是忽略样本。 -匹配策略是目标检测算法的核心,一个好的匹配策略可以显著提升算法性能。 - -YOLOV5 的匹配策略简单总结为:**采用了 anchor 和 gt_bbox 的 shape 匹配度作为划分规则,同时引入跨邻域网格策略来增加正样本**。 -其主要包括如下两个核心步骤: - -1. 对于任何一个输出层,抛弃了常用的基于 Max IoU 匹配的规则,而是直接采用 shape 规则匹配,也就是该 GT Bbox 和当前层的 Anchor 计算宽高比,如果宽高比例大于设定阈值,则说明该 GT Bbox 和 Anchor 匹配度不够,将该 GT Bbox 暂时丢掉,在该层预测中该 GT Bbox 对应的网格内的预测位置认为是负样本 -2. 对于剩下的 GT Bbox(也就是匹配上的 GT Bbox),计算其落在哪个网格内,同时利用四舍五入规则,找出最近的两个网格,将这三个网格都认为是负责预测该 GT Bbox 的,可以粗略估计正样本数相比之前的 YOLO 系列,至少增加了三倍 - -下面会对每个部分进行详细说明,部分描述和图示直接或间接参考自官方 [Repo](https://github.com/ultralytics/YOLOv5/issues/6998#44)。 - -#### 1.3.1 Anchor 设置 - -YOLOv5 是 Anchor-based 的目标检测算法,其 Anchor size 的获取方式与 YOLOv3 类似,也是使用聚类获得,其不同之处在于聚类使用的标准不再是基于 IoU 的,而是使用形状上的宽高比作为聚类准则(即 shape-match )。 - -在用户更换了数据集后,可以使用 MMYOLO 里带有的 Anchor 分析工具,对自己的数据集进行分析,确定合适的 Anchor size。 - -```shell -python tools/analysis_tools/optimize_anchors.py ${CONFIG} --algorithm v5-k-means - --input-shape ${INPUT_SHAPE [WIDTH HEIGHT]} --output-dir ${OUTPUT_DIR} -``` - -然后在 [config 文件](https://github.com/open-mmlab/mmyolo/blob/main/configs/yolov5/yolov5_s-v61_syncbn_fast_8xb16-300e_coco.py) 里修改默认 Anchor size: - -```python -anchors = [[(10, 13), (16, 30), (33, 23)], [(30, 61), (62, 45), (59, 119)], - [(116, 90), (156, 198), (373, 326)]] -``` - -#### 1.3.2 Bbox 编解码过程 - -在 Anchor-based 算法中,预测框通常会基于 Anchor 进行变换,然后预测变换量,这对应 GT Bbox 编码过程,而在预测后需要进行 Pred Bbox 解码,还原为真实尺度的 Bbox,这对应 Pred Bbox 解码过程。 - -在 YOLOv3 中,回归公式为: - -```{math} -b_x=\sigma(t_x)+c_x \\ -b_y=\sigma(t_y)+c_y \\ -b_w=a_w\cdot e^{t_w} \\ -b_h=a_h\cdot e^{t_h} \\ -``` - -公式中, - -```{math} -a_w 代表 Anchor 的宽度 \\ -c_x 代表 Grid 所处的坐标 \\ -\sigma 代表 Sigmoid 公式。 -``` - -而在 YOLOv5 中,回归公式为: - -```{math} -b_x=(2\cdot\sigma(t_x)-0.5)+c_x \\ -b_y=(2\cdot\sigma(t_y)-0.5)+c_y \\ -b_w=a_w\cdot(2\cdot\sigma(t_w))^2 \\ -b_h=a_h\cdot(2\cdot\sigma(t_h))^2 -``` - -改进之处主要有以下两点: - -- 中心点坐标范围从 (0, 1) 调整至 (-0.5, 1.5) -- 宽高范围从 - -```{math} -(0,+\infty) -``` - -调整至 - -```{math} -(0,4a_{wh}) -``` - -这个改进具有以下好处: - -- **新的中心点设置能更好的预测到 0 和 1**。这有助于更精准回归出 box 坐标。 - -
-image -
- -- 宽高回归公式中 exp(x) 是无界的,这会导致**梯度失去控制**,造成训练不稳定。YOLOv5 中改进后的宽高回归公式优化了此问题。 - -
-image -
- -#### 1.3.3 匹配策略 - -在 MMYOLO 设计中,无论网络是 Anchor-based 还是 Anchor-free,**我们统一使用 prior 称呼 Anchor**。 - -正样本匹配包含以下两步: - -**(1) “比例”比较** - -将 GT Bbox 的 WH 与 Prior 的 WH 进行“比例”比较。 - -比较流程: - -```{math} -r_w = w\_{gt} / w\_{pt} \\ -r_h = h\_{gt} / h\_{pt} \\ -r_w^{max}=max(r_w, 1/r_w) \\ -r_h^{max}=max(r_h, 1/r_h) \\ -r^{max}=max(r_w^{max}, r_h^{max}) \\ -if\ \ r_{max} < prior\_match\_thr: match! -``` - -此处我们用一个 GT Bbox 与 P3 特征图的 Prior 进行匹配的案例进行讲解和图示: - -
-image -
- -prior1 匹配失败的原因是 - -```{math} -h\_{gt}\ /\ h\_{prior}\ =\ 4.8\ >\ prior\_match\_thr -``` - -**(2) 为步骤 1 中 match 的 GT 分配对应的正样本** - -依然沿用上面的例子: - -GT Bbox (cx, cy, w, h) 值为 (26, 37, 36, 24), - -Prior WH 值为 \[(15, 5), (24, 16), (16, 24)\],在 P3 特征图上,stride 为 8。通过计算,prior2 和 prior3 能够 match。 - -计算过程如下: - -**(2.1) 将 GT Bbox 的中心点坐标对应到 P3 的 grid 上** - -```{math} -GT_x^{center_grid}=26/8=3.25 \\ -GT_y^{center_grid}=37/8=4.625 -``` - -
-image -
- -**(2.2)** 将 GT Bbox 中心点所在的 grid 分成四个象限,**由于中心点落在了左下角的象限当中,那么会将物体的左、下两个 grid 也认为是正样本** - -
-image -
- -下图展示中心点落到不同位置时的正样本分配情况: - -
-image -
- -那么 YOLOv5 的 Assign 方式具体带来了哪些改进? - -- 一个 GT Bbox 能够匹配多个 Prior - -- 一个 GT Bbox 和一个Prior 匹配时,能分配 1-3 个正样本 - -- 以上策略能**适度缓解目标检测中常见的正负样本不均衡问题**。 - -而 YOLOv5 中的回归方式,和 Assign 方式是相互呼应的: - -1. 中心点回归方式: - -
-image -
- -2. WH 回归方式: - -
-image -
- -### 1.4 Loss 设计 - -YOLOv5 中总共包含 3 个 Loss,分别为: - -- Classes loss:使用的是 BCE loss -- Objectness loss:使用的是 BCE loss -- Location loss:使用的是 CIoU loss - -三个 loss 按照一定比例汇总: - -```{math} -Loss=\lambda_1L_{cls}+\lambda_2L_{obj}+\lambda_3L_{loc} -``` - -P3、P4、P5 层对应的 Objectness loss 按照不同权重进行相加,默认的设置是 - -```python -obj_level_weights=[4., 1., 0.4] -``` - -```{math} -L_{obj}=4.0\cdot L_{obj}^{small}+1.0\cdot L_{obj}^{medium}+0.4\cdot L_{obj}^{large} -``` - -在复现中我们发现 YOLOv5 中使用的 CIoU 与目前最新官方 CIoU 存在一定的差距,差距体现在 alpha 参数的计算。 - -官方版本: - -参考资料:https://github.com/Zzh-tju/CIoU/blob/master/layers/modules/multibox_loss.py#L53-L55 - -```python -alpha = (ious > 0.5).float() * v / (1 - ious + v) -``` - -YOLOv5 版本: - -```python -alpha = v / (v - ious + (1 + eps)) -``` - -这是一个有趣的细节,后续需要测试不同 alpha 计算方式情况下带来的精度差距。 - -### 1.5 优化策略和训练过程 - -YOLOv5 对每个优化器的参数组进行非常精细的控制,简单来说包括如下部分。 - -#### 1.5.1 优化器分组 - -将优化参数分成 Conv/Bias/BN 三组,在 WarmUp 阶段,不同组采用不同的 lr 以及 momentum 更新曲线。 -同时在 WarmUp 阶段采用的是 iter-based 更新策略,而在非 WarmUp 阶段则变成 epoch-based 更新策略,可谓是 trick 十足。 - -MMYOLO 中是采用 YOLOv5OptimizerConstructor 优化器构造器实现优化器参数分组。优化器构造器的作用就是对一些特殊的参数组初始化过程进行精细化控制,因此可以很好的满足需求。 - -而不同的参数组采用不同的调度曲线功能则是通过 YOLOv5ParamSchedulerHook 实现。而不同的参数组采用不同的调度曲线功能则是通过 YOLOv5ParamSchedulerHook 实现。 - -#### 1.5.2 weight decay 参数自适应 - -作者针对不同的 batch size 采用了不同的 weight decay 策略,具体来说为: - -1. 当训练 batch size \<= 64 时,weight decay 不变 -2. 当训练 batch size > 64 时,weight decay 会根据总 batch size 进行线性缩放 - -MMYOLO 也是通过 YOLOv5OptimizerConstructor 实现。 - -#### 1.5.3 梯度累加 - -为了最大化不同 batch size 情况下的性能,作者设置总 batch size 小于 64 时候会自动开启梯度累加功能。 - -训练过程和大部分 YOLO 类似,包括如下策略: - -1. 没有使用预训练权重 -2. 没有采用多尺度训练策略,同时可以开启 cudnn.benchmark 进一步加速训练 -3. 使用了 EMA 策略平滑模型 -4. 默认采用 AMP 自动混合精度训练 - -需要特意说明的是:YOLOv5 官方对于 small 模型是采用单卡 v100 训练,bs 为 128,而 m/l/x 等是采用不同数目的多卡实现的, -这种训练策略不太规范,**为此在 MMYOLO 中全部采用了 8 卡,每卡 16 bs 的设置,同时为了避免性能差异,训练时候开启了 SyncBN**。 - -### 1.6 推理和后处理过程 - -YOLOv5 后处理过程和 YOLOv3 非常类似,实际上 YOLO 系列的后处理逻辑都是类似的。 - -#### 1.6.1 核心控制参数 - -1. **multi_label** - -对于多类别预测来说需要考虑是否是多标签任务,也就是同一个预测位置会预测的多个类别概率,和是否当作单类处理。因为 YOLOv5 采用 sigmoid 预测模式,在考虑多标签情况下可能会出现一个物体检测出两个不同类别的框,这有助于评估指标 mAP,但是不利于实际应用。 -因此在需要算评估指标时候 multi_label 是 True,而推理或者实际应用时候是 False - -2. **score_thr 和 nms_thr** - -score_thr 阈值用于过滤类别分值,低于分值的检测框当做背景处理,nms_thr 是 nms 时阈值。同样的,在计算评估指标 mAP 阶段可以将 score_thr 设置的非常低,这通常能够提高召回率,从而提升 mAP,但是对于实际应用来说没有意义,且会导致推理过程极慢。为此在测试和推理阶段会设置不同的阈值 - -3. **nms_pre 和 max_per_img** - -nms_pre 表示 nms 前的最大保留检测框数目,这通常是为了防止 nms 运行时候输入框过多导致速度过慢问题,默认值是 30000。 -max_per_img 表示最终保留的最大检测框数目,通常设置为 300。 - -以 COCO 80 类为例,假设输入图片大小为 640x640 - -
-image -
- -其推理和后处理过程为: - -**(1) 维度变换** - -YOLOv5 输出特征图尺度为 80x80、40x40 和 20x20 的三个特征图,每个位置共 3 个 anchor,因此输出特征图通道为 3x(5+80)=255。 -YOLOv5 是非解耦输出头,而其他大部分算法都是解耦输出头,为了统一后处理逻辑,我们提前将其进行解耦,分成了类别预测分支、bbox 预测分支和 obj 预测分支。 - -将三个不同尺度的类别预测分支、bbox 预测分支和 obj 预测分支进行拼接,并进行维度变换。为了后续方便处理,会将原先的通道维度置换到最后,类别预测分支、bbox 预测分支和 obj 预测分支的 shape 分别为 (b, 3x80x80+3x40x40+3x20x20, 80)=(b,25200,80),(b,25200,4),(b,25200,1)。 - -**(2) 解码还原到原图尺度** - -分类预测分支和 obj 分支需要进行 sigmoid 计算,而 bbox 预测分支需要进行解码,还原为真实的原图解码后 xyxy 格式 - -**(3) 第一次阈值过滤** - -遍历 batch 中的每张图,然后用 score_thr 对类别预测分值进行阈值过滤,去掉低于 score_thr 的预测结果 - -**(4) 第二次阈值过滤** - -将 obj 预测分值和过滤后的类别预测分值相乘,然后依然采用 score_thr 进行阈值过滤。 -在这过程中还需要考虑 **multi_label 和 nms_pre,确保过滤后的检测框数目不会多于 nms_pre**。 - -**(5) 还原到原图尺度和 nms** - -基于前处理过程,将剩下的检测框还原到网络输出前的原图尺度,然后进行 nms 即可。最终输出的检测框不能多于 **max_per_img**。 - -#### 1.6.2 batch shape 策略 - -为了加速验证集的推理过程,作者提出了 batch shape 策略,其核心原则是:**确保在 batch 推理过程中同一个 batch 内的图片 pad 像素最少,不要求整个验证过程中所有 batch 的图片尺度一样**。 - -其大概流程是:将整个测试或者验证数据的宽高比进行排序,然后依据 batch 设置将排序后的图片组成一个 batch, -同时计算这个 batch 内最佳的 batch shape,防止 pad 像素过多。最佳 batch shape 计算原则为在保持宽高比的情况下进行 pad,不追求正方形图片输出。 - -```python - image_shapes = [] - for data_info in data_list: - image_shapes.append((data_info['width'], data_info['height'])) - - image_shapes = np.array(image_shapes, dtype=np.float64) - - n = len(image_shapes) # number of images - batch_index = np.floor(np.arange(n) / self.batch_size).astype( - np.int) # batch index - number_of_batches = batch_index[-1] + 1 # number of batches - - aspect_ratio = image_shapes[:, 1] / image_shapes[:, 0] # aspect ratio - irect = aspect_ratio.argsort() - - data_list = [data_list[i] for i in irect] - - aspect_ratio = aspect_ratio[irect] - # Set training image shapes - shapes = [[1, 1]] * number_of_batches - for i in range(number_of_batches): - aspect_ratio_index = aspect_ratio[batch_index == i] - min_index, max_index = aspect_ratio_index.min( - ), aspect_ratio_index.max() - if max_index < 1: - shapes[i] = [max_index, 1] - elif min_index > 1: - shapes[i] = [1, 1 / min_index] - - batch_shapes = np.ceil( - np.array(shapes) * self.img_size / self.size_divisor + - self.pad).astype(np.int) * self.size_divisor - - for i, data_info in enumerate(data_list): - data_info['batch_shape'] = batch_shapes[batch_index[i]] -``` - -## 2 总结 - -本文对 YOLOv5 原理和在 MMYOLO 实现进行了详细解析,希望能帮助用户理解算法实现过程。同时请注意:由于 YOLOv5 本身也在不断更新,本开源库也会不断迭代,请及时阅读和同步最新版本。 diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/torch\345\256\236\347\216\260/README.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/torch\345\256\236\347\216\260/README.md.txt" deleted file mode 100644 index 995d4daf3..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/YOLO\347\263\273\345\210\227\350\247\243\350\257\273/torch\345\256\236\347\216\260/README.md.txt" +++ /dev/null @@ -1 +0,0 @@ -这是torch版本的yolo解读 \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\215\201\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\345\215\201\347\253\240/index.md.txt" deleted file mode 100644 index b9b15d726..000000000 --- "a/docs/_sources/\347\254\254\345\215\201\347\253\240/index.md.txt" +++ /dev/null @@ -1,13 +0,0 @@ -# 第十章:常见代码解读 -```{toctree} -:maxdepth: 2 -10.1 图像分类 -10.2 目标检测 -10.3 图像分割 -ResNet源码解读 -RNN详解及其实现 -LSTM解读及实战 -Transformer 解读 -ViT解读 -Swin-Transformer解读 -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\233\233\347\253\240/4.1 ResNet.md.txt" "b/docs/_sources/\347\254\254\345\233\233\347\253\240/4.1 ResNet.md.txt" deleted file mode 100644 index 777cc2d58..000000000 --- "a/docs/_sources/\347\254\254\345\233\233\347\253\240/4.1 ResNet.md.txt" +++ /dev/null @@ -1,377 +0,0 @@ -# 4.1 ResNet - -残差神经网络(ResNet)是由微软研究院的何恺明、张祥雨、任少卿、孙剑等人提出的。它的主要贡献是发现了在增加网络层数的过程中,随着训练精度(Training accuracy)逐渐趋于饱和,继续增加层数,training accuracy 就会出现下降的现象,而这种下降不是由过拟合造成的。他们将这一现象称之为“退化现象(Degradation)”,并针对退化现象发明了 “快捷连接(Shortcut connection)”,极大的消除了深度过大的神经网络训练困难问题。神经网络的“深度”首次突破了100层、最大的神经网络甚至超过了1000层。(在此,向已故的孙剑博士表示崇高的敬意) - -通过本文你将学习到: - -- 梯度消失/爆炸的简介 - -- 代码里面为什么要设计BasicBlock和Bottleneck两种结构 - -- 代码里面的expansion作用 - -## 1 基本介绍 - -随着卷积神经网络的出现,人们发现多层卷积或者全连接网络的效果大于单层卷积或者全连接网络。于是很多人潜意识认为网络的层数越多,其效果就会越好。但是当时微软研究院的何恺明、张祥雨、任少卿、孙剑等人发现加深网络的深度后,整个网络的效果反而变差了许多。他们认为很深的网络无法训练的原因可能是网络在信息传递的时候或多或少会存在信息丢失,损耗等问题,同时还可能出现梯度消失或者梯度爆炸现象。针对这个问题,他们提出了ResNet以期望解决这个问题,ResNet的出现也让神经网络逐渐真正走向深度神经网络。ResNet最大的贡献在于添加了shortcut connection将输入直接连接到后面的层,一定程度缓解了梯度消失和梯度爆炸并提高了深度神经网络的效果。接下来我们详细的解释一下**梯度消失**和**梯度爆炸**。 - -梯度消失和梯度爆炸的根源主要是因为深度神经网络结构以及反向传播算法,目前优化神经网络的方法都是基于反向传播的思想,即根据损失函数计算的误差通过反向传播的方式,指导深度网络权值的更新。误差梯度是神经网络训练过程中计算的方向和数量,用于以正确的方向和合适的量更新网络权重。 在深层网络或循环神经网络中,误差梯度可在更新中累积,变成非常大的梯度,然后导致网络权重的大幅更新,并因此使网络变得不稳定。在极端情况下,权重的值变得非常大,以至于溢出,导致 NaN 值。 **网络层之间的梯度(值大于 1.0)重复相乘导致的指数级增长会产生梯度爆炸。** 在深度多层感知机网络中,梯度爆炸会引起网络不稳定,最好的结果是无法从训练数据中学习,而最坏的结果是出现无法再更新的 NaN 权重值。 - -而在某些情况下,梯度会变得非常小, **网络层之间的梯度(值小于 1.0)重复相乘导致的指数级变小会产生梯度消失**。在最坏的情况下,这可能会完全停止神经网络的进一步训练。例如,传统的激活函数(如双曲正切函数)具有范围(0,1)内的梯度,反向传播通过链式法则计算梯度。这样做的效果是,用这些小数字的n乘以n来计算n层网络中“前端”层的梯度,这意味着梯度(误差信号)随n呈指数递减,而前端层的训练非常缓慢。最终导致更新停滞。 -## 2 源码解读 - -为了帮助大家对ResNet有更好的理解,我们使用[torchvision的ResNet源码](https://github.com/pytorch/vision/blob/master/torchvision/models/resnet.py)进行解读。 - -### 2.1 卷积核的封装 - -在代码的开始,首先封装了3x3和1x1的卷积核,这样可以增加代码的可读性。除了这种代码写法外,还有许多深度学习代码在开始也会将卷积层,激活函数层和BN层封装在一起,同样是为了增加代码的可读性。 - -```python -def conv3x3(in_planes: int, out_planes: int, stride: int = 1, groups: int = 1, dilation: int = 1) -> nn.Conv2d: - """3x3 convolution with padding""" - return nn.Conv2d( - in_planes, - out_planes, - kernel_size=3, - stride=stride, - padding=dilation, - groups=groups, - bias=False, - dilation=dilation, - ) - - -def conv1x1(in_planes: int, out_planes: int, stride: int = 1) -> nn.Conv2d: - """1x1 convolution""" - return nn.Conv2d(in_planes, out_planes, kernel_size=1, stride=stride, bias=False) -``` - -### 2.2 基本模块的设计 - -ResNet网络是由很多相同的模块堆叠起来的,为了保证代码具有可读性和可扩展性,ResNet在设计时采用了模块化设计,针对不同大小的ResNet,书写了BasicBlock和BottleNeck两个基本模块。这种模块化的设计在现在许多常见的深度学习代码中我们可以经常看到。 - -ResNet常见的大小有下图的ResNet-18,ResNet-34,ResNet-50、ResNet-101和ResNet-152,其中网络后面的数字代表的是网络的层数。 - -![expansion](./figures/expansion.jpg) - -为了帮助大家更好的理解,我们以ResNet101为例。 - -| layer_name | 次数 | -| ---------- | ------------------------------- | -| conv1 | 卷积1次 | -| conv2_x | 卷积3 x 3 = 9次 | -| conv3_x | 卷积4 x 3 = 12次 | -| conv4_x | 卷积23 x 3 = 69次 | -| conv5_x | 卷积3 x 3 = 9次 | -| fc | average pool 1次 | -| 合计 | 1 + 9 + 12 + 69 + 9 + 1 = 101次 | - -观察上面各个ResNet的模块,我们可以发现ResNet-18和ResNet-34每一层内,数据的大小不会发生变化,但是ResNet-50、ResNet-101和ResNet-152中的每一层内输入和输出的channel数目不一样,输出的channel扩大为输入channel的4倍,除此之外,每一层的卷积的大小也变换为1,3,1的结构。基于这个发现,我们可以将ResNet-18和ResNet-34的构成模块当作一类,ResNet-50、ResNet-101和ResNet-152这三类网络的构成模块当作一类。事实上,torchvision的源码也是基于这种设计思想,使用如下图的BasicBlock(左)和BottleNeck(右)模块,并且为了控制输入和输出的通道数目的变化,在代码中输出的通道维度也通过expansion进行控制,两个block类输入一个通道为in_planes维的度特征图,输出一个planes\*block.expansion维的特征图,其中planes的数目大小等于in_planes。除此以外,代码右侧的曲线就是本文最重要的shortcut支路,该支路上的downsample操作是为了对shortcut支路进行大小或维度上的调整,以希望执行相加操作 - -![block](./figures/block.jpg) - -#### 2.2.1 Shortcut Connection. - -这里再分析一下shortcut connection: - -![shortcut](./figures/shortcut.jpg) - -shortcut connection也就是所谓的“抄近道”,它有两种方式,其一为同等维度的映射,即输入输出直接相加(即上图中的F(x) + x),另一种为不同维度的映射,这时候就需要给x补充一个线性映射来匹配维度。 - -比如下面这个图: - - - -左:VGG-19模型,作为参考。 中:一个有34个参数层的普通网络。 右:一个有34个参数层的残差网络(即resnet34) - -在上图最右侧的路径中,我们可以很明显的看到shortcut connection加入了网络之中,同时,图中也很明显的可以看到,实线部分就是进行了单纯的F(x)+x操作,而虚线部分,第一个卷积层的stride是2(那个/2的意思就是stride是2);同时注意到深度也发生了变换,channel数目增加一倍(扩大两倍),这样F(x)的分辨率比x小一半,厚度比x大一倍。在这样的shortcut connection中,就需要补充线性映射来增加维度。在ResNet中,作者使用了1 x 1的卷积核来达到这个目的。 - -另外,论文中又提到说:“……where both designs have similar time complexity.” 既然BasicBlock和Bottleneck二者的时间复杂度类似,那么为什么还要额外设计一个Bottleneck结构呢? - -根据前面的叙述我们知道,BasicBlock结构比传统的卷积结构多了一个shortcut支路,用于传递低层的信息,使得网络能够训练地很深。而BottleNeck先通过一个1x1的卷积减少通道数,使得中间卷积的通道数减少为1/4;中间的普通卷积做完卷积后输出通道数等于输入通道数;第三个卷积用于恢复通道数,使得BottleNeck的输出通道数等于BottleNeck的输入通道数。**换句话说,这两个1x1卷积有效地减少了卷积的参数个数和计算量,同时减少了中间特征图的通道数,使单个Block消耗的显存更少,在较深的网络中BottleNeck会在参数上更加节约,这样可以有利于构建层数更多的网络,同时还能保持性能的提升。**所以resnet50, resnet101和resnet152使用了另外设计的BottleNeck结构。 - -#### 2.2.2 BasicBlock - -BasicBlock模块用来构建resnet18和resnet34 - -```python -class BasicBlock(nn.Module): - expansion: int = 1 - - def __init__( - self, - inplanes: int, - planes: int, - stride: int = 1, - downsample: Optional[nn.Module] = None, - groups: int = 1, - base_width: int = 64, - dilation: int = 1, - norm_layer: Optional[Callable[..., nn.Module]] = None, - ) -> None: - super().__init__() - if norm_layer is None: - norm_layer = nn.BatchNorm2d - if groups != 1 or base_width != 64: - raise ValueError("BasicBlock only supports groups=1 and base_width=64") - if dilation > 1: - raise NotImplementedError("Dilation > 1 not supported in BasicBlock") - # Both self.conv1 and self.downsample layers downsample the input when stride != 1 - self.conv1 = conv3x3(inplanes, planes, stride) - self.bn1 = norm_layer(planes) - self.relu = nn.ReLU(inplace=True) - self.conv2 = conv3x3(planes, planes) - self.bn2 = norm_layer(planes) - self.downsample = downsample - self.stride = stride - - def forward(self, x: Tensor) -> Tensor: - identity = x # x 给自己先备份一份 - - out = self.conv1(x) # 对x做卷积 - out = self.bn1(out) # 对x归一化 - out = self.relu(out) # 对x用激活函数 - - out = self.conv2(out) # 对x做卷积 - out = self.bn2(out) # 归一化 - - if self.downsample is not None: - identity = self.downsample(x) - - out += identity # 进行downsample - out = self.relu(out) - - return out -``` - -#### 2.2.3 BottleNeck - -BottleNeck模块用来构建resnet50,resnet101和resnet152 - -```python -class Bottleneck(nn.Module): - # Bottleneck in torchvision places the stride for downsampling at 3x3 convolution(self.conv2) - # while original implementation places the stride at the first 1x1 convolution(self.conv1) - # according to "Deep residual learning for image recognition"https://arxiv.org/abs/1512.03385. - # This variant is also known as ResNet V1.5 and improves accuracy according to - # https://ngc.nvidia.com/catalog/model-scripts/nvidia:resnet_50_v1_5_for_pytorch. - - expansion: int = 4 # 对输出通道进行倍增 - - def __init__( - self, - inplanes: int, - planes: int, - stride: int = 1, - downsample: Optional[nn.Module] = None, - groups: int = 1, - base_width: int = 64, - dilation: int = 1, - norm_layer: Optional[Callable[..., nn.Module]] = None, - ) -> None: - super().__init__() - if norm_layer is None: - norm_layer = nn.BatchNorm2d - width = int(planes * (base_width / 64.0)) * groups - # Both self.conv2 and self.downsample layers downsample the input when stride != 1 - self.conv1 = conv1x1(inplanes, width) - self.bn1 = norm_layer(width) - self.conv2 = conv3x3(width, width, stride, groups, dilation) - self.bn2 = norm_layer(width) - self.conv3 = conv1x1(width, planes * self.expansion) - self.bn3 = norm_layer(planes * self.expansion) - self.relu = nn.ReLU(inplace=True) - self.downsample = downsample - self.stride = stride - - # Bottleneckd forward函数和BasicBlock类似,不再额外注释 - def forward(self, x: Tensor) -> Tensor: - identity = x - - out = self.conv1(x) - out = self.bn1(out) - out = self.relu(out) - - out = self.conv2(out) - out = self.bn2(out) - out = self.relu(out) - - out = self.conv3(out) - out = self.bn3(out) - - if self.downsample is not None: - identity = self.downsample(x) - - out += identity - out = self.relu(out) - - return out -``` - -我们在这里再对代码中**expansion**的作用做一个说明,我们可以重新回顾一下下面这张图。 - -![](./figures/expansion.jpg) - -expansion简单来说就是对输出通道的倍乘。在BasicBlock和BottleNeck中,“\_\_init\_\_”函数中有三个比较关键的参数:inplanes,planes和stride,这三者分别表示输入的通道数,输出的通道数和步幅。在两个模块中,\_\_init__传入的planes都是64,128,156,512,但我们观察上面的表格,会发现对于ResNet-50,ResNet-101和ResNet-152而言,它们需要的输出通道应该为256,512,1024,2048才对。因此在这里设置expansion=4,对应上面BottleNeck代码中的30行和31行,将每一个planes都乘上这个expansion,就得到了需要的通道数;而对于ResNet-18和ResNet-34而言,输入通道和输出通道的维度上没有发生变化,因此expansion也设置为1。 - -### 2.3 网络整体结构 - -在定义好最基本的Bottlenneck和BasicBlock后,我们就可以构建ResNet网络了。 - -```python -class ResNet(nn.Module): - def __init__( - self, - block: Type[Union[BasicBlock, Bottleneck]], # 选择基本模块 - layers: List[int], # 每一层block的数目构成 -> [3,4,6,3] - num_classes: int = 1000, # 分类数目 - zero_init_residual: bool = False, # 初始化 - - #######其他卷积构成,与本文ResNet无关###### - groups: int = 1, - width_per_group: int = 64, - replace_stride_with_dilation: Optional[List[bool]] = None, - ######################################### - - norm_layer: Optional[Callable[..., nn.Module]] = None, # norm层 - ) -> None: - super().__init__() - _log_api_usage_once(self) - if norm_layer is None: - norm_layer = nn.BatchNorm2d - self._norm_layer = norm_layer - - self.inplanes = 64 # 输入通道 - - #######其他卷积构成,与本文ResNet无关###### - self.dilation = 1 # 空洞卷积 - if replace_stride_with_dilation is None: - # each element in the tuple indicates if we should replace - # the 2x2 stride with a dilated convolution instead - replace_stride_with_dilation = [False, False, False] - if len(replace_stride_with_dilation) != 3: - raise ValueError( - "replace_stride_with_dilation should be None " - f"or a 3-element tuple, got {replace_stride_with_dilation}" - ) - self.groups = groups - self.base_width = width_per_group - ######################################### - - self.conv1 = nn.Conv2d(3, self.inplanes, kernel_size=7, stride=2, padding=3, bias=False) - self.bn1 = norm_layer(self.inplanes) - self.relu = nn.ReLU(inplace=True) - self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1) - # 通过_make_layer带到层次化设计的效果 - self.layer1 = self._make_layer(block, 64, layers[0]) # 对应着conv2_x - self.layer2 = self._make_layer(block, 128, layers[1], stride=2, dilate=replace_stride_with_dilation[0]) # 对应着conv3_x - self.layer3 = self._make_layer(block, 256, layers[2], stride=2, dilate=replace_stride_with_dilation[1]) # 对应着conv4_x - self.layer4 = self._make_layer(block, 512, layers[3], stride=2, dilate=replace_stride_with_dilation[2]) # 对应着conv5_x - # 分类头 - self.avgpool = nn.AdaptiveAvgPool2d((1, 1)) - self.fc = nn.Linear(512 * block.expansion, num_classes) - - # 模型初始化 - for m in self.modules(): - if isinstance(m, nn.Conv2d): - nn.init.kaiming_normal_(m.weight, mode="fan_out", nonlinearity="relu") - elif isinstance(m, (nn.BatchNorm2d, nn.GroupNorm)): - nn.init.constant_(m.weight, 1) - nn.init.constant_(m.bias, 0) - - # Zero-initialize the last BN in each residual branch, - # so that the residual branch starts with zeros, and each residual block behaves like an identity. - # This improves the model by 0.2~0.3% according to https://arxiv.org/abs/1706.02677 - if zero_init_residual: - for m in self.modules(): - if isinstance(m, Bottleneck) and m.bn3.weight is not None: - nn.init.constant_(m.bn3.weight, 0) # type: ignore[arg-type] - elif isinstance(m, BasicBlock) and m.bn2.weight is not None: - nn.init.constant_(m.bn2.weight, 0) # type: ignore[arg-type] - # 层次化设计 - def _make_layer( - self, - block: Type[Union[BasicBlock, Bottleneck]], # 基本构成模块选择 - planes: int, # 输入的通道 - blocks: int, # 模块数目 - stride: int = 1, # 步长 - dilate: bool = False, # 空洞卷积,与本文无关 - ) -> nn.Sequential: - norm_layer = self._norm_layer - downsample = None # 是否采用下采样 - ####################无关##################### - previous_dilation = self.dilation - if dilate: - self.dilation *= stride - stride = 1 - ############################################# - if stride != 1 or self.inplanes != planes * block.expansion: - downsample = nn.Sequential( - conv1x1(self.inplanes, planes * block.expansion, stride), - norm_layer(planes * block.expansion), - ) - - # 使用layers存储每个layer - layers = [] - layers.append( - block( - self.inplanes, planes, stride, downsample, self.groups, self.base_width, previous_dilation, norm_layer - ) - ) - self.inplanes = planes * block.expansion - for _ in range(1, blocks): - layers.append( - block( - self.inplanes, - planes, - groups=self.groups, - base_width=self.base_width, - dilation=self.dilation, - norm_layer=norm_layer, - ) - ) - # 将layers通过nn.Sequential转化为网络 - return nn.Sequential(*layers) - - def _forward_impl(self, x: Tensor) -> Tensor: - # See note [TorchScript super()] - x = self.conv1(x) # conv1 x shape [1 64 112 112] - x = self.bn1(x) # 归一化处理 - x = self.relu(x) # 激活函数 - x = self.maxpool(x) # conv2_x的3x3 maxpool x shape [1 64 56 56] - - x = self.layer1(x) # layer 1 - x = self.layer2(x) # layer 2 - x = self.layer3(x) # layer 3 - x = self.layer4(x) # layer 4 - - x = self.avgpool(x) # 自适应池化 - x = torch.flatten(x, 1) - x = self.fc(x) # 分类 - - return x - - def forward(self, x: Tensor) -> Tensor: - return self._forward_impl(x) -``` - -观察上述代码,我们不难看到,首先是一个7 x 7的卷积作用在输入的3维图片上,并输入一个64维的特征图(即self.inplanes的初始值),通过BatchNorm层,ReLU层,MaxPool层;然后经过_make_layer()函数构建的4层layer,最后经过一个AveragePooling层,再经过一个fc层得到分类输出。在网络搭建起来后,还对模型的参数(Conv2d、BatchNorm2d、last BN)进行了初始化。 - -而对于\_make_layer函数,一个_make_layer()构建一个layer层,每一个layer层是上述两种基本模块的堆叠。输入参数中block代表该layer堆叠模块的类型,可选BasicBlock或者BottleNeck;blocks代表该layer中堆叠的block的数目;planes与该layer最终输出的维度数有关,注意最终输出的维度数为planes * block.expansion。除此之外, _make\_layer()是用来生成残差块的,这就牵扯到它的第四个参数:stride,即卷积步幅。该函数中首先定义了如果stride不等于1或者维度不匹配(即输入通道不满足对应关系)的时候的downsample,然后对其进行一次BN操作。接着对inplanes和planes不一致的情况进行了一次downsample ,即将带downsample的block添加至layers。这样保证了x和out的维度一致,接下来通过一个循环添加了指定个数的Block,由于x已经维度一致了,这样添加的其他的Block就可以不用降维了,所以循环添加不含Downsample的Block。正如下面代码所示 - -```python -if stride != 1 or self.inplanes != planes * block.expansion: - downsample = nn.Sequential( - conv1x1(self.inplanes, planes * block.expansion, stride), - norm_layer(planes * block.expansion), - ) -``` - -当一个layer包含多个block时,是通过向layers列表中依次加入每个block,来实现block的堆叠的。第一个block需要特殊处理,该block依据传入的self.inplanes, planes以及stride判断,可能含有downsample支路;这个block的输出维度是planes\*block.expansion。紧接着便把self.inplanes更新为此值作为后续block的输入维度。后面的block的stride为默认值1,同时,由于输入为self.inplanes,输出为planes*block.expansion,而self.inplanes = planes * block.expansion,因此不会出现特征图大小或者尺寸不一致的情况,不可能出现downsample操作。 - -## 3 总结 - -与普通的网络相比,ResNet最大的优势就是引入了Shortcut这个支路,让某一层可以直接连接到后面的层,使得后面的层可以直接学习残差。传统的卷积层或全连接层在信息传递时,或多或少会存在信息丢失、损耗等问题。ResNet 在某种程度上解决了这个问题,通过直接将输入信息绕道传到输出,保护信息的完整性,整个网络则只需要学习输入、输出差别的那一部分,简化学习目标和难度。 - -ResNet的出现,在一定程度上解决了卷积神经网络随深度的增加,但是模型效果却变差的问题,用作者的话说,就是: “Our deep residual nets can easily enjoy accuracy gains from greatly increased depth, producing results substantially better than previous networks.”。原始的ResNet对于训练卷积神经网路做出了很大的贡献,但是同样也有着许多可以改进的地方。随着时代的发展,原版的ResNet在一次又一次的研究中得到了丰富和完善,衍生出了丰富的改进的模型,如ResNeXt。它提出了一种介于普通卷积核深度可分离卷积的这种策略:分组卷积。通过控制分组的数量(基数)来达到两种策略的平衡。分组卷积的思想是源自Inception,不同于Inception的需要人工设计每个分支,ResNeXt的每个分支的拓扑结构是相同的。最后再结合残差网络,得到的便是最终的ResNeXt。 - -除此之外,ResNet还有其它变体如Wider ResNet,DarkNet53等。它们的改进相对较大,尤其是DarkNet53,它和ResNet已经有很大不同了,只是使用到了残差连接从而复用特征而已。总而言之,ResNet是深度学习领域一个里程碑式的工作。。 diff --git "a/docs/_sources/\347\254\254\345\233\233\347\253\240/4.3 DenseNet.md.txt" "b/docs/_sources/\347\254\254\345\233\233\347\253\240/4.3 DenseNet.md.txt" deleted file mode 100644 index e69de29bb..000000000 diff --git "a/docs/_sources/\347\254\254\345\233\233\347\253\240/4.4 FashionMNIST\345\233\276\345\203\217\345\210\206\347\261\273.md.txt" "b/docs/_sources/\347\254\254\345\233\233\347\253\240/4.4 FashionMNIST\345\233\276\345\203\217\345\210\206\347\261\273.md.txt" deleted file mode 100644 index 87e118d60..000000000 --- "a/docs/_sources/\347\254\254\345\233\233\347\253\240/4.4 FashionMNIST\345\233\276\345\203\217\345\210\206\347\261\273.md.txt" +++ /dev/null @@ -1,338 +0,0 @@ -# 基础实战——FashionMNIST时装分类 - -![](./figures/fashion-mnist-sprite.png) - -经过前面三章内容的学习,我们完成了以下的内容: -- 对PyTorch有了初步的认识 -- 学会了如何安装PyTorch以及对应的编程环境 -- 学习了PyTorch最核心的理论基础(张量&自动求导) -- 梳理了利用PyTorch完成深度学习的主要步骤和对应实现方式 - -现在,我们通过一个基础实战案例,将第一部分所涉及的PyTorch入门知识串起来,便于大家加深理解。同时为后续的进阶学习打好基础。 - -经过本节的学习,你将收获: - -- 一个完整的深度学习流程 -- 各个组件的实际使用方法 - -我们这里的任务是对10个类别的“时装”图像进行分类,使用[FashionMNIST数据集](https://github.com/zalandoresearch/fashion-mnist/tree/master/data/fashion )。 -上图给出了FashionMNIST中数据的若干样例图,其中每个小图对应一个样本。 -FashionMNIST数据集中包含已经预先划分好的训练集和测试集,其中训练集共60,000张图像,测试集共10,000张图像。每张图像均为单通道黑白图像,大小为28\*28pixel,分属10个类别。 - -下面让我们一起将第三章各部分内容逐步实现,来跑完整个深度学习流程。 - -**首先导入必要的包** - - -```python -import os -import numpy as np -import pandas as pd -import torch -import torch.nn as nn -import torch.optim as optim -from torch.utils.data import Dataset, DataLoader -``` - -**配置训练环境和超参数** - - - -```python -# 配置GPU,这里有两种方式 -## 方案一:使用os.environ -os.environ['CUDA_VISIBLE_DEVICES'] = '0' -# 方案二:使用“device”,后续对要使用GPU的变量用.to(device)即可 -device = torch.device("cuda:1" if torch.cuda.is_available() else "cpu") - -## 配置其他超参数,如batch_size, num_workers, learning rate, 以及总的epochs -batch_size = 256 -num_workers = 4 # 对于Windows用户,这里应设置为0,否则会出现多线程错误 -lr = 1e-4 -epochs = 20 -``` - -**数据读入和加载** -这里同时展示两种方式: -- 下载并使用PyTorch提供的内置数据集 -- 从网站下载以csv格式存储的数据,读入并转成预期的格式 -第一种数据读入方式只适用于常见的数据集,如MNIST,CIFAR10等,PyTorch官方提供了数据下载。这种方式往往适用于快速测试方法(比如测试下某个idea在MNIST数据集上是否有效) -第二种数据读入方式需要自己构建Dataset,这对于PyTorch应用于自己的工作中十分重要 - -同时,还需要对数据进行必要的变换,比如说需要将图片统一为一致的大小,以便后续能够输入网络训练;需要将数据格式转为Tensor类,等等。 - -这些变换可以很方便地借助torchvision包来完成,这是PyTorch官方用于图像处理的工具库,上面提到的使用内置数据集的方式也要用到。PyTorch的一大方便之处就在于它是一整套“生态”,有着官方和第三方各个领域的支持。这些内容我们会在后续课程中详细介绍。 - - -```python -# 首先设置数据变换 -from torchvision import transforms - -image_size = 28 -data_transform = transforms.Compose([ - transforms.ToPILImage(), - # 这一步取决于后续的数据读取方式,如果使用内置数据集读取方式则不需要 - transforms.Resize(image_size), - transforms.ToTensor() -]) -``` - - -```python -## 读取方式一:使用torchvision自带数据集,下载可能需要一段时间 -from torchvision import datasets - -train_data = datasets.FashionMNIST(root='./', train=True, download=True, transform=data_transform) -test_data = datasets.FashionMNIST(root='./', train=False, download=True, transform=data_transform) -``` - - /data1/ljq/anaconda3/envs/smp/lib/python3.8/site-packages/torchvision/datasets/mnist.py:498: UserWarning: The given NumPy array is not writeable, and PyTorch does not support non-writeable tensors. This means you can write to the underlying (supposedly non-writeable) NumPy array using the tensor. You may want to copy the array to protect its data or make it writeable before converting it to a tensor. This type of warning will be suppressed for the rest of this program. (Triggered internally at /opt/conda/conda-bld/pytorch_1623448234945/work/torch/csrc/utils/tensor_numpy.cpp:180.) - return torch.from_numpy(parsed.astype(m[2], copy=False)).view(*s) - - - -```python -## 读取方式二:读入csv格式的数据,自行构建Dataset类 -# csv数据下载链接:https://www.kaggle.com/zalando-research/fashionmnist -class FMDataset(Dataset): - def __init__(self, df, transform=None): - self.df = df - self.transform = transform - self.images = df.iloc[:,1:].values.astype(np.uint8) - self.labels = df.iloc[:, 0].values - - def __len__(self): - return len(self.images) - - def __getitem__(self, idx): - image = self.images[idx].reshape(28,28,1) - label = int(self.labels[idx]) - if self.transform is not None: - image = self.transform(image) - else: - image = torch.tensor(image/255., dtype=torch.float) - label = torch.tensor(label, dtype=torch.long) - return image, label - -train_df = pd.read_csv("./FashionMNIST/fashion-mnist_train.csv") -test_df = pd.read_csv("./FashionMNIST/fashion-mnist_test.csv") -train_data = FMDataset(train_df, data_transform) -test_data = FMDataset(test_df, data_transform) -``` - -在构建训练和测试数据集完成后,需要定义DataLoader类,以便在训练和测试时加载数据 - - - -```python -train_loader = DataLoader(train_data, batch_size=batch_size, shuffle=True, num_workers=num_workers, drop_last=True) -test_loader = DataLoader(test_data, batch_size=batch_size, shuffle=False, num_workers=num_workers) -``` - -读入后,我们可以做一些数据可视化操作,主要是验证我们读入的数据是否正确 - - -```python -import matplotlib.pyplot as plt -image, label = next(iter(train_loader)) -print(image.shape, label.shape) -plt.imshow(image[0][0], cmap="gray") -``` - - torch.Size([256, 1, 28, 28]) - torch.Size([256]) - - - - - - -![png](./figures/output_13_2.png) - - - -**模型设计** -由于任务较为简单,这里我们手搭一个CNN,而不考虑当下各种模型的复杂结构,模型构建完成后,将模型放到GPU上用于训练。 - - - -```python -class Net(nn.Module): - def __init__(self): - super(Net, self).__init__() - self.conv = nn.Sequential( - nn.Conv2d(1, 32, 5), - nn.ReLU(), - nn.MaxPool2d(2, stride=2), - nn.Dropout(0.3), - nn.Conv2d(32, 64, 5), - nn.ReLU(), - nn.MaxPool2d(2, stride=2), - nn.Dropout(0.3) - ) - self.fc = nn.Sequential( - nn.Linear(64*4*4, 512), - nn.ReLU(), - nn.Linear(512, 10) - ) - - def forward(self, x): - x = self.conv(x) - x = x.view(-1, 64*4*4) - x = self.fc(x) - # x = nn.functional.normalize(x) - return x - -model = Net() -model = model.cuda() -# model = nn.DataParallel(model).cuda() # 多卡训练时的写法,之后的课程中会进一步讲解 -``` - -**设定损失函数** -使用torch.nn模块自带的CrossEntropy损失 -PyTorch会自动把整数型的label转为one-hot型,用于计算CE loss -这里需要确保label是从0开始的,同时模型不加softmax层(使用logits计算),这也说明了PyTorch训练中各个部分不是独立的,需要通盘考虑 - - -```python -criterion = nn.CrossEntropyLoss() -# criterion = nn.CrossEntropyLoss(weight=[1,1,1,1,3,1,1,1,1,1]) -``` - - -```python -?nn.CrossEntropyLoss # 这里方便看一下weighting等策略 -``` - -**设定优化器** -这里我们使用Adam优化器 - - -```python -optimizer = optim.Adam(model.parameters(), lr=0.001) -``` - -**训练和测试(验证)** -各自封装成函数,方便后续调用 -关注两者的主要区别: -- 模型状态设置 -- 是否需要初始化优化器 -- 是否需要将loss传回到网络 -- 是否需要每步更新optimizer - -此外,对于测试或验证过程,可以计算分类准确率 - - -```python -def train(epoch): - model.train() - train_loss = 0 - for data, label in train_loader: - data, label = data.cuda(), label.cuda() - optimizer.zero_grad() - output = model(data) - loss = criterion(output, label) - loss.backward() - optimizer.step() - train_loss += loss.item()*data.size(0) - train_loss = train_loss/len(train_loader.dataset) - print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch, train_loss)) -``` - - -```python -def val(epoch): - model.eval() - val_loss = 0 - gt_labels = [] - pred_labels = [] - with torch.no_grad(): - for data, label in test_loader: - data, label = data.cuda(), label.cuda() - output = model(data) - preds = torch.argmax(output, 1) - gt_labels.append(label.cpu().data.numpy()) - pred_labels.append(preds.cpu().data.numpy()) - loss = criterion(output, label) - val_loss += loss.item()*data.size(0) - val_loss = val_loss/len(test_loader.dataset) - gt_labels, pred_labels = np.concatenate(gt_labels), np.concatenate(pred_labels) - acc = np.sum(gt_labels==pred_labels)/len(pred_labels) - print('Epoch: {} \tValidation Loss: {:.6f}, Accuracy: {:6f}'.format(epoch, val_loss, acc)) -``` - - -```python -for epoch in range(1, epochs+1): - train(epoch) - val(epoch) -``` - - /data1/ljq/anaconda3/envs/smp/lib/python3.8/site-packages/torch/nn/functional.py:718: UserWarning: Named tensors and all their associated APIs are an experimental feature and subject to change. Please do not use them for anything important until they are released as stable. (Triggered internally at /opt/conda/conda-bld/pytorch_1623448234945/work/c10/core/TensorImpl.h:1156.) - return torch.max_pool2d(input, kernel_size, stride, padding, dilation, ceil_mode) - - - Epoch: 1 Training Loss: 0.659050 - Epoch: 1 Validation Loss: 0.420328, Accuracy: 0.852000 - Epoch: 2 Training Loss: 0.403703 - Epoch: 2 Validation Loss: 0.350373, Accuracy: 0.872300 - Epoch: 3 Training Loss: 0.350197 - Epoch: 3 Validation Loss: 0.293053, Accuracy: 0.893200 - Epoch: 4 Training Loss: 0.322463 - Epoch: 4 Validation Loss: 0.283335, Accuracy: 0.892300 - Epoch: 5 Training Loss: 0.300117 - Epoch: 5 Validation Loss: 0.268653, Accuracy: 0.903500 - Epoch: 6 Training Loss: 0.282179 - Epoch: 6 Validation Loss: 0.247219, Accuracy: 0.907200 - Epoch: 7 Training Loss: 0.268283 - Epoch: 7 Validation Loss: 0.242937, Accuracy: 0.907800 - Epoch: 8 Training Loss: 0.257615 - Epoch: 8 Validation Loss: 0.234324, Accuracy: 0.912200 - Epoch: 9 Training Loss: 0.245795 - Epoch: 9 Validation Loss: 0.231515, Accuracy: 0.914100 - Epoch: 10 Training Loss: 0.238739 - Epoch: 10 Validation Loss: 0.229616, Accuracy: 0.914400 - Epoch: 11 Training Loss: 0.230499 - Epoch: 11 Validation Loss: 0.228124, Accuracy: 0.915200 - Epoch: 12 Training Loss: 0.221574 - Epoch: 12 Validation Loss: 0.211928, Accuracy: 0.921200 - Epoch: 13 Training Loss: 0.217924 - Epoch: 13 Validation Loss: 0.209744, Accuracy: 0.921700 - Epoch: 14 Training Loss: 0.206033 - Epoch: 14 Validation Loss: 0.215477, Accuracy: 0.921400 - Epoch: 15 Training Loss: 0.203349 - Epoch: 15 Validation Loss: 0.215550, Accuracy: 0.919400 - Epoch: 16 Training Loss: 0.196319 - Epoch: 16 Validation Loss: 0.210800, Accuracy: 0.923700 - Epoch: 17 Training Loss: 0.191969 - Epoch: 17 Validation Loss: 0.207266, Accuracy: 0.923700 - Epoch: 18 Training Loss: 0.185466 - Epoch: 18 Validation Loss: 0.207138, Accuracy: 0.924200 - Epoch: 19 Training Loss: 0.178241 - Epoch: 19 Validation Loss: 0.204093, Accuracy: 0.924900 - Epoch: 20 Training Loss: 0.176674 - Epoch: 20 Validation Loss: 0.197495, Accuracy: 0.928300 - - -**模型保存** -训练完成后,可以使用torch.save保存模型参数或者整个模型,也可以在训练过程中保存模型 -这部分会在后面的课程中详细介绍 - - -```python -save_path = "./FahionModel.pkl" -torch.save(model, save_path) -``` - -**作业** -- 模型训练 -1. 在学习完6.2 动态调整学习率后尝试使用动态调整学习率的方法训练模型。 -2. 在学习完6.3 模型微调后,尝试使用预训练模型进行模型微调,观察模型的训练效果。 -3. 在学习完6.5 数据增强后,尝试使用imgaug库进行数据增强,观察模型的训练效果。 -4. 在学习完7.3 使用TensorBoard可视化训练过程后,尝试使用TensorBoard可视化训练过程,观察模型的训练效果。 -5. 使用多卡训练模型,观察模型的训练效果。 - -- 模型推理 -1. 在学习完5.4 PyTorh模型保存与读取后,加载已经训练好的模型,进行模型推理。 -2. 使用sklearn.metrics中的classification_report函数,输出模型的分类报告。 -3. 学习完9.1 使用ONNX进行部署并推理后,将模型转换为ONNX格式,使用ONNXRuntime进行推理。 \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\233\233\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\345\233\233\347\253\240/index.md.txt" deleted file mode 100644 index fac7aee17..000000000 --- "a/docs/_sources/\347\254\254\345\233\233\347\253\240/index.md.txt" +++ /dev/null @@ -1,8 +0,0 @@ -# 第四章:PyTorch基础实战 -```{toctree} -:maxdepth: 2 -4.1 ResNet -4.2 GoogLeNet -4.3 DenseNet -4.4 FashionMNIST图像分类 -``` \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\345\233\233\347\253\240/\345\237\272\347\241\200\345\256\236\346\210\230\342\200\224\342\200\224FashionMNIST\346\227\266\350\243\205\345\210\206\347\261\273.md.txt" "b/docs/_sources/\347\254\254\345\233\233\347\253\240/\345\237\272\347\241\200\345\256\236\346\210\230\342\200\224\342\200\224FashionMNIST\346\227\266\350\243\205\345\210\206\347\261\273.md.txt" deleted file mode 100644 index 9df90944b..000000000 --- "a/docs/_sources/\347\254\254\345\233\233\347\253\240/\345\237\272\347\241\200\345\256\236\346\210\230\342\200\224\342\200\224FashionMNIST\346\227\266\350\243\205\345\210\206\347\261\273.md.txt" +++ /dev/null @@ -1,325 +0,0 @@ -# 基础实战——FashionMNIST时装分类 - -![](./figures/fashion-mnist-sprite.png) - -经过前面三章内容的学习,我们完成了以下的内容: -- 对PyTorch有了初步的认识 -- 学会了如何安装PyTorch以及对应的编程环境 -- 学习了PyTorch最核心的理论基础(张量&自动求导) -- 梳理了利用PyTorch完成深度学习的主要步骤和对应实现方式 - -现在,我们通过一个基础实战案例,将第一部分所涉及的PyTorch入门知识串起来,便于大家加深理解。同时为后续的进阶学习打好基础。 - -经过本节的学习,你将收获: - -- 一个完整的深度学习流程 -- 各个组件的实际使用方法 - -我们这里的任务是对10个类别的“时装”图像进行分类,使用[FashionMNIST数据集](https://github.com/zalandoresearch/fashion-mnist/tree/master/data/fashion )。 -上图给出了FashionMNIST中数据的若干样例图,其中每个小图对应一个样本。 -FashionMNIST数据集中包含已经预先划分好的训练集和测试集,其中训练集共60,000张图像,测试集共10,000张图像。每张图像均为单通道黑白图像,大小为28\*28pixel,分属10个类别。 - -下面让我们一起将第三章各部分内容逐步实现,来跑完整个深度学习流程。 - -**首先导入必要的包** - - -```python -import os -import numpy as np -import pandas as pd -import torch -import torch.nn as nn -import torch.optim as optim -from torch.utils.data import Dataset, DataLoader -``` - -**配置训练环境和超参数** - - - -```python -# 配置GPU,这里有两种方式 -## 方案一:使用os.environ -os.environ['CUDA_VISIBLE_DEVICES'] = '0' -# 方案二:使用“device”,后续对要使用GPU的变量用.to(device)即可 -device = torch.device("cuda:1" if torch.cuda.is_available() else "cpu") - -## 配置其他超参数,如batch_size, num_workers, learning rate, 以及总的epochs -batch_size = 256 -num_workers = 4 # 对于Windows用户,这里应设置为0,否则会出现多线程错误 -lr = 1e-4 -epochs = 20 -``` - -**数据读入和加载** -这里同时展示两种方式: -- 下载并使用PyTorch提供的内置数据集 -- 从网站下载以csv格式存储的数据,读入并转成预期的格式 -第一种数据读入方式只适用于常见的数据集,如MNIST,CIFAR10等,PyTorch官方提供了数据下载。这种方式往往适用于快速测试方法(比如测试下某个idea在MNIST数据集上是否有效) -第二种数据读入方式需要自己构建Dataset,这对于PyTorch应用于自己的工作中十分重要 - -同时,还需要对数据进行必要的变换,比如说需要将图片统一为一致的大小,以便后续能够输入网络训练;需要将数据格式转为Tensor类,等等。 - -这些变换可以很方便地借助torchvision包来完成,这是PyTorch官方用于图像处理的工具库,上面提到的使用内置数据集的方式也要用到。PyTorch的一大方便之处就在于它是一整套“生态”,有着官方和第三方各个领域的支持。这些内容我们会在后续课程中详细介绍。 - - -```python -# 首先设置数据变换 -from torchvision import transforms - -image_size = 28 -data_transform = transforms.Compose([ - transforms.ToPILImage(), - # 这一步取决于后续的数据读取方式,如果使用内置数据集读取方式则不需要 - transforms.Resize(image_size), - transforms.ToTensor() -]) -``` - - -```python -## 读取方式一:使用torchvision自带数据集,下载可能需要一段时间 -from torchvision import datasets - -train_data = datasets.FashionMNIST(root='./', train=True, download=True, transform=data_transform) -test_data = datasets.FashionMNIST(root='./', train=False, download=True, transform=data_transform) -``` - - /data1/ljq/anaconda3/envs/smp/lib/python3.8/site-packages/torchvision/datasets/mnist.py:498: UserWarning: The given NumPy array is not writeable, and PyTorch does not support non-writeable tensors. This means you can write to the underlying (supposedly non-writeable) NumPy array using the tensor. You may want to copy the array to protect its data or make it writeable before converting it to a tensor. This type of warning will be suppressed for the rest of this program. (Triggered internally at /opt/conda/conda-bld/pytorch_1623448234945/work/torch/csrc/utils/tensor_numpy.cpp:180.) - return torch.from_numpy(parsed.astype(m[2], copy=False)).view(*s) - - - -```python -## 读取方式二:读入csv格式的数据,自行构建Dataset类 -# csv数据下载链接:https://www.kaggle.com/zalando-research/fashionmnist -class FMDataset(Dataset): - def __init__(self, df, transform=None): - self.df = df - self.transform = transform - self.images = df.iloc[:,1:].values.astype(np.uint8) - self.labels = df.iloc[:, 0].values - - def __len__(self): - return len(self.images) - - def __getitem__(self, idx): - image = self.images[idx].reshape(28,28,1) - label = int(self.labels[idx]) - if self.transform is not None: - image = self.transform(image) - else: - image = torch.tensor(image/255., dtype=torch.float) - label = torch.tensor(label, dtype=torch.long) - return image, label - -train_df = pd.read_csv("./FashionMNIST/fashion-mnist_train.csv") -test_df = pd.read_csv("./FashionMNIST/fashion-mnist_test.csv") -train_data = FMDataset(train_df, data_transform) -test_data = FMDataset(test_df, data_transform) -``` - -在构建训练和测试数据集完成后,需要定义DataLoader类,以便在训练和测试时加载数据 - - - -```python -train_loader = DataLoader(train_data, batch_size=batch_size, shuffle=True, num_workers=num_workers, drop_last=True) -test_loader = DataLoader(test_data, batch_size=batch_size, shuffle=False, num_workers=num_workers) -``` - -读入后,我们可以做一些数据可视化操作,主要是验证我们读入的数据是否正确 - - -```python -import matplotlib.pyplot as plt -image, label = next(iter(train_loader)) -print(image.shape, label.shape) -plt.imshow(image[0][0], cmap="gray") -``` - - torch.Size([256, 1, 28, 28]) - torch.Size([256]) - - - - - - -![png](./figures/output_13_2.png) - - - -**模型设计** -由于任务较为简单,这里我们手搭一个CNN,而不考虑当下各种模型的复杂结构,模型构建完成后,将模型放到GPU上用于训练。 - - - -```python -class Net(nn.Module): - def __init__(self): - super(Net, self).__init__() - self.conv = nn.Sequential( - nn.Conv2d(1, 32, 5), - nn.ReLU(), - nn.MaxPool2d(2, stride=2), - nn.Dropout(0.3), - nn.Conv2d(32, 64, 5), - nn.ReLU(), - nn.MaxPool2d(2, stride=2), - nn.Dropout(0.3) - ) - self.fc = nn.Sequential( - nn.Linear(64*4*4, 512), - nn.ReLU(), - nn.Linear(512, 10) - ) - - def forward(self, x): - x = self.conv(x) - x = x.view(-1, 64*4*4) - x = self.fc(x) - # x = nn.functional.normalize(x) - return x - -model = Net() -model = model.cuda() -# model = nn.DataParallel(model).cuda() # 多卡训练时的写法,之后的课程中会进一步讲解 -``` - -**设定损失函数** -使用torch.nn模块自带的CrossEntropy损失 -PyTorch会自动把整数型的label转为one-hot型,用于计算CE loss -这里需要确保label是从0开始的,同时模型不加softmax层(使用logits计算),这也说明了PyTorch训练中各个部分不是独立的,需要通盘考虑 - - -```python -criterion = nn.CrossEntropyLoss() -# criterion = nn.CrossEntropyLoss(weight=[1,1,1,1,3,1,1,1,1,1]) -``` - - -```python -?nn.CrossEntropyLoss # 这里方便看一下weighting等策略 -``` - -**设定优化器** -这里我们使用Adam优化器 - - -```python -optimizer = optim.Adam(model.parameters(), lr=0.001) -``` - -**训练和测试(验证)** -各自封装成函数,方便后续调用 -关注两者的主要区别: -- 模型状态设置 -- 是否需要初始化优化器 -- 是否需要将loss传回到网络 -- 是否需要每步更新optimizer - -此外,对于测试或验证过程,可以计算分类准确率 - - -```python -def train(epoch): - model.train() - train_loss = 0 - for data, label in train_loader: - data, label = data.cuda(), label.cuda() - optimizer.zero_grad() - output = model(data) - loss = criterion(output, label) - loss.backward() - optimizer.step() - train_loss += loss.item()*data.size(0) - train_loss = train_loss/len(train_loader.dataset) - print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch, train_loss)) -``` - - -```python -def val(epoch): - model.eval() - val_loss = 0 - gt_labels = [] - pred_labels = [] - with torch.no_grad(): - for data, label in test_loader: - data, label = data.cuda(), label.cuda() - output = model(data) - preds = torch.argmax(output, 1) - gt_labels.append(label.cpu().data.numpy()) - pred_labels.append(preds.cpu().data.numpy()) - loss = criterion(output, label) - val_loss += loss.item()*data.size(0) - val_loss = val_loss/len(test_loader.dataset) - gt_labels, pred_labels = np.concatenate(gt_labels), np.concatenate(pred_labels) - acc = np.sum(gt_labels==pred_labels)/len(pred_labels) - print('Epoch: {} \tValidation Loss: {:.6f}, Accuracy: {:6f}'.format(epoch, val_loss, acc)) -``` - - -```python -for epoch in range(1, epochs+1): - train(epoch) - val(epoch) -``` - - /data1/ljq/anaconda3/envs/smp/lib/python3.8/site-packages/torch/nn/functional.py:718: UserWarning: Named tensors and all their associated APIs are an experimental feature and subject to change. Please do not use them for anything important until they are released as stable. (Triggered internally at /opt/conda/conda-bld/pytorch_1623448234945/work/c10/core/TensorImpl.h:1156.) - return torch.max_pool2d(input, kernel_size, stride, padding, dilation, ceil_mode) - - - Epoch: 1 Training Loss: 0.659050 - Epoch: 1 Validation Loss: 0.420328, Accuracy: 0.852000 - Epoch: 2 Training Loss: 0.403703 - Epoch: 2 Validation Loss: 0.350373, Accuracy: 0.872300 - Epoch: 3 Training Loss: 0.350197 - Epoch: 3 Validation Loss: 0.293053, Accuracy: 0.893200 - Epoch: 4 Training Loss: 0.322463 - Epoch: 4 Validation Loss: 0.283335, Accuracy: 0.892300 - Epoch: 5 Training Loss: 0.300117 - Epoch: 5 Validation Loss: 0.268653, Accuracy: 0.903500 - Epoch: 6 Training Loss: 0.282179 - Epoch: 6 Validation Loss: 0.247219, Accuracy: 0.907200 - Epoch: 7 Training Loss: 0.268283 - Epoch: 7 Validation Loss: 0.242937, Accuracy: 0.907800 - Epoch: 8 Training Loss: 0.257615 - Epoch: 8 Validation Loss: 0.234324, Accuracy: 0.912200 - Epoch: 9 Training Loss: 0.245795 - Epoch: 9 Validation Loss: 0.231515, Accuracy: 0.914100 - Epoch: 10 Training Loss: 0.238739 - Epoch: 10 Validation Loss: 0.229616, Accuracy: 0.914400 - Epoch: 11 Training Loss: 0.230499 - Epoch: 11 Validation Loss: 0.228124, Accuracy: 0.915200 - Epoch: 12 Training Loss: 0.221574 - Epoch: 12 Validation Loss: 0.211928, Accuracy: 0.921200 - Epoch: 13 Training Loss: 0.217924 - Epoch: 13 Validation Loss: 0.209744, Accuracy: 0.921700 - Epoch: 14 Training Loss: 0.206033 - Epoch: 14 Validation Loss: 0.215477, Accuracy: 0.921400 - Epoch: 15 Training Loss: 0.203349 - Epoch: 15 Validation Loss: 0.215550, Accuracy: 0.919400 - Epoch: 16 Training Loss: 0.196319 - Epoch: 16 Validation Loss: 0.210800, Accuracy: 0.923700 - Epoch: 17 Training Loss: 0.191969 - Epoch: 17 Validation Loss: 0.207266, Accuracy: 0.923700 - Epoch: 18 Training Loss: 0.185466 - Epoch: 18 Validation Loss: 0.207138, Accuracy: 0.924200 - Epoch: 19 Training Loss: 0.178241 - Epoch: 19 Validation Loss: 0.204093, Accuracy: 0.924900 - Epoch: 20 Training Loss: 0.176674 - Epoch: 20 Validation Loss: 0.197495, Accuracy: 0.928300 - - -**模型保存** -训练完成后,可以使用torch.save保存模型参数或者整个模型,也可以在训练过程中保存模型 -这部分会在后面的课程中详细介绍 - - -```python -save_path = "./FahionModel.pkl" -torch.save(model, save_path) -``` diff --git "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.1 \344\272\272\345\267\245\346\231\272\350\203\275\347\256\200\345\217\262.md.txt" "b/docs/_sources/\347\254\254\351\233\266\347\253\240/0.1 \344\272\272\345\267\245\346\231\272\350\203\275\347\256\200\345\217\262.md.txt" deleted file mode 100644 index 84a438509..000000000 --- "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.1 \344\272\272\345\267\245\346\231\272\350\203\275\347\256\200\345\217\262.md.txt" +++ /dev/null @@ -1,66 +0,0 @@ -# 人工智能简史 - -自从图灵在1950年第一次提出“机器智能(Machine Intelligence)”这个概念以来,人工智能已经经历了七十余年的发展。在这七十多年中,人工智能的发展先后经历了三次浪潮,每一次浪潮对人工智能的发展来说,都是具有里程碑意义的。接下来我们将以这三次浪潮为主线,为大家介绍人工智能的发展历程。除此之外,我们也将会给大家介绍现在常说的Deep learning,Machine Learning和AI之间的关系。 - -[* ]通过本章学习,你将收获: - -* 了解人工智能的三次浪潮 -* 了解Deep learning,Machine learning和AI之间的关系 - -## 1.1 人工智能的三次浪潮 - -### 1.1.1 第一次浪潮 - -1950年,阿兰·图灵发表著名论文《计算机器与智能》,在这篇论文中,他提出了机器思维的概念和图灵测试,标志着“机器的智能化”正式进入人类的科技树。在此之后的数年间,机器智能有了进一步的发展。两年后的1952年,计算机科学家阿瑟·萨缪尔开发出一款跳棋程序,并提出了“机器学习”这个概念。在此之后的4年里,机器智能化也取得了一定的进步,直到1956年的达特茅斯会议上,约翰·麦卡锡正式提出了“人工智能”这个词语,1956年,也就成为了实际意义上的人工智能元年。 - -达特茅斯会议之后,人工智能进入了一个高速发展的时期,也就是所谓的“第一次浪潮”。这次浪潮一直持续到二十世纪六十年代中期。在这近10年的时间里,计算机本身的“智能”并没有得到发展,快速进步的是人工智能的一些理论与算法方面。很多对后来人工智能发展起到奠基作用的算法——如罗森布拉特在1957年发明感知机——就是在这个时间段诞生的。感知机是机器学习人工神经网络理论中神经元的最早模型,这一模型也使得人工神经网络理论得到了巨大的突破。除此之外,强化学习的雏形也是在那段时间提出的。彼时的科学界都弥漫着快乐的气氛,大家都认为,只要坚持走下去,人工智能就一定会得到跨越式的发展。但事与愿违,不久后人工智能的第一次寒冬(AI Winter)就到来了。 - -1966年前后,AI遭遇了瓶颈。人们发现逻辑证明器、感知器、强化学习等等只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对。当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。研究者们很快就意识到,要求程序对这个世界具有儿童水平的认识这个要求都太高了——那时没人能够做出人工智能需要的巨大数据库,也没人知道一个程序怎样才能学到如此丰富的信息。另一方面,有很多计算复杂度以指数程度增加,这成为了不可能完成的计算任务。 - -可以说,人工智能的第一次浪潮在发展到“非智能对话机器”的智能化初级阶段时,就因为当时的技术限制不得不停摆。人工智能的发展似乎陷入了一个无解的“死胡同”里,并被计算机科学家们逐渐冷落。 - -### 1.1.2 第二次浪潮 - -时间来到了20世纪80年代。经过了数十年的研究,科学家们逐渐放弃了初代的符号学派思路,改用统计学的思路来研究人工智能。研究思路的改变再加上硬件技术的升级,人工智能的发展又一次迎来的新的契机。在那个时代,基于人工智能的“专家系统”受到了绝对的热捧。特定领域的“专家系统”程序被更广泛的采纳,该系统能够根据领域内的专业知识,推理出专业问题的答案,人工智能也由此变得更加“实用”,专家系统所依赖的知识库系统和知识工程成为了当时主要的研究方向。 - -但由于专家系统仅适用于某些特定场景,很快人们就对这一系统由狂热的追捧逐渐走向巨大的失望。与此同时,现代电子计算机的出现让“知识查询”的费用进一步降低,人们更加深刻的意识到专家系统是如此的古老陈旧。因此,政府部门下调了专家系统的研发资金。缺少了资金的支持,由专家系统再次兴起的人工智能研究又一次陷入了低谷之中。 - -虽然第二次浪潮持续的时间比较短,但它在整个人工智能发展历史中仍然起到了举足轻重的作用。它彻底改变了人工智能研究的大思路,将统计学思想引入研究之中,为人工智能在未来几十年的发展打下了基础。除此之外,在这次浪潮中提出的BP神经网络,为之后机器感知、交互的能力奠定了基础。 - -### 1.1.3 第三次浪潮 - -1993年后,新的数学工具,理论和摩尔定律的出现,使得计算机的算力进一步提高,以深度学习为核心的机器学习算法获得发展,新的芯片和云计算的发展使得可用的计算能力获得飞跃式提高,大数据的发展使得海量数据的储存和分析成为可能。在这样的技术背景下,人工智能的第三次浪潮即将到来。 - -人工智能的第三次浪潮有两个重要的时间节点:2006年和2016年。2006年是深度学习发展史的分水岭。杰弗里辛顿在这一年发表了《一种深度置信网络的快速学习算法》,其他重要的深度学习学术文章也在这一年被发布,在基本理论层面取得了若干重大突破。而2016年3月,谷歌DeepMind研发的AlphaGo在围棋人机大战中击败韩国职业九段棋手李世乭,“人工智能”一词正式进入普通民众的视野并被逐渐熟知。至此,人工智能正式迈向了从“科研领域的应用型工具”到“实用性,功能性工具”的转变,人工智能有了新的研究方向和研究模式,即从过去的学术主导型研究逐渐走向了商业主导型研究。随着人类社会对智能化工具的不断追求和探索,人工智能的发展迎来了全新的时代。 - -### 1.1.4 总结 - -![](figures/AI.jpg) - -上图是对人工智能发展中经历的三次浪潮和两次寒冬的形象总结。除此之外,有观点认为,深度学习算法带来的“技术红利”,将支撑我们再发展5~10年时间,随后就会遇到瓶颈。人工智能不是一个简单的从1到100进步的过程,它往往趋向于两个极端:要么90分以上,其它的都是10分以下。目前,人工智能急需寻找到一个“技术奇点”,让人工智能迅速发展到通用人工智能甚至是超级人工智能的水平。否则,在人工智能研究商业化的今天,无法从中获利的投资人们将快速撤资退场,人工智能或将进入下一个寒冬。 - -## 1.2 DL,ML,AI三者之间的关系 - -大家对“人工智能”这个词,也就是我们所谓的“AI”(Artificial Intelligence)想必是非常熟悉,无论是近几年各行各业都喜欢用作营销噱头的“智能化”还是早期电影如《黑客帝国》、《终结者》等,都让AI这个概念深入人心。但近几年,另外两个词语也在逐步进入我们的生活,即就是“机器学习(Machine Learning,ML)”和“深度学习(Deep Learning,DL)”。在接下来的叙述中,我们就将了解DL和ML究竟是什么,以及它们和AI之间的关系。 - -### 1.2.1 DL和ML是什么 - -Machine Learning(机器学习)。它在1959年被机器学习的先驱者之一的阿瑟·塞缪尔定义为:一门研究领域,它赋予计算机无需明确编程就能学习的能力。也就是说,机器学习程序不同于传统编程那样,使用if-then语句那样明确地输入到计算机中以便它根据条件执行。在某种意义上,机器学习程序赋予机器根据所接触到的数据进行自我调整的能力。机器学习更像是一种优化算法,如果我们在事先就对它进行了正确的调整,那么它就会在一遍又一遍的尝试和猜测之中不断减少它的错误,以无限逼近于最终的正确结果。而机器学习的基本思路,也就是将现实问题抽象成为一个数学问题,机器通过训练,寻找到解决数学问题的方法,进而解决现实问题。 - -Deep Learning(深度学习)。它在2006年被提出,并在近些年得到了迅速的发展。它通过建立、模拟人脑进行分析学习的神经网络,并模仿人脑的机制来解释数据。李开复教授在《人工智能》一书中这样解释深度学习:“假设深度学习要处理的信息是“水流”,而处理数据的深度学习网络是一个由管道和阀门组成的巨大水管网络。网络的入口是若干管道开口,网络的出口也是若干管道开口。这个水管网络有许多层,每一层由许多个可以控制水流流向与流量的调节阀。根据不同任务的需要,水管网络的层数、每层的调节阀数量可以有不同的变化组合。对复杂任务来说,调节阀的总数可以成千上万甚至更多。水管网络中,每一层的每个调节阀都通过水管与下一层的所有调节阀连接起来,组成一个从前到后,逐层完全连通的水流系统。” - -### 1.2.2 它们和AI的关系 - -众所周知,人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。既然如此,那么计算器算是人工智能吗?严格地说是算的,因为它至少做了“模拟”人在计算方面的智能,并扩展了这个能力(比人算得更快)。我们通过代码驱动计算机去帮我们干活,这个算是人工智能吗?也算的。我们现在看到的貌似很高端的技术,如图像识别、NLP,其实依然没有脱离这个范围,说白了,就是“模拟人在看图方面的智能”和“模拟人在听话方面的智能”,本质上和“模拟人在计算方面的智能”没啥两样,虽然难度有高低,但目的是一样的——模拟、延伸和扩展人的智能。 - -随着人对计算机的期望越来越高,要求它解决的问题越来越复杂,仅仅算的更快,看的更准已经远远不能满足人们的诉求了。要解决的问题域越来越复杂,即使是同一个问题,其面对的场景也越来越多。传统的思路就是查找问题的条件和解决方法,在计算机程序中再加入一个if-then。但这只是治标不治本。随着我们期待解决的问题越来越多,计算机程序将越来越复杂,越来越难以维护。那怎么办呢?于是有人提出了一个新的思路——能否不为难码农,让机器自己去学习呢? - -至此,“机器学习”的概念,正式诞生。机器学习就是用算法解析数据,不断学习,对世界中发生的事做出判断和预测的一项技术。研究人员不会亲手编写软件、确定特殊指令集、然后让程序完成特殊任务;相反,研究人员会用大量数据和算法“训练”机器,让机器自行学会如何执行任务。说白了,机器学习只是人们实现让机器“模拟、延伸和扩展人的智能”的一种较为轻松的方法罢了。它的成功与否取决于我们喂给机器的数据集是否准确且有效。因此,机器学习是大数据技术领域内的一个应用,人们只是借用这个应用,来发展人工智能罢了。机器学习发展了几十年之后,再次遇到了瓶颈期。随着问题场景的更加复杂多变,需要进行判断的条件更加苛刻,人们不得不重新思考一种方式来优化机器学习。深度学习就是带着这个目的被提出的。 - -机器学习中有一个概念叫“神经网络”,深度学习正是通过优化这个网络来更好的解决通过机器学习难以解决的问题。它的基本特点,就是试图模仿大脑的神经元之间传递,处理信息的模式,通过不同的“层”来拆分问题,每一层解决问题的一个部分。比如在利用深度学习解决智能驾驶问题中,第一层可能用于识别车辆与道路边缘的距离,第二层用于识别道路标线,第三层用于识别路上的其他车辆等等。 - -通过以上几段话的简单描述,DL,ML和AI之间的关系也就明确了。它们三者的关系就像是俄罗斯套娃:AI最大,它的目的是通过让机器模仿人类进而超越人类;ML次之,它是AI的一个分支(也是最重要分支),是让机器模仿人类的一种方法;DL更次之,它是ML的一个分支,它的目的是让机器不借助人工标注,也能自主提取目标特征进而解决问题的一种方法。 - -最后,借用一张经典的关系图作为结尾: - -![](figures/AI&ML&DL.jpg) \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.1 \346\267\261\345\272\246\345\255\246\344\271\240\345\237\272\347\241\200\347\237\245\350\257\206.md.txt" "b/docs/_sources/\347\254\254\351\233\266\347\253\240/0.1 \346\267\261\345\272\246\345\255\246\344\271\240\345\237\272\347\241\200\347\237\245\350\257\206.md.txt" deleted file mode 100644 index 6a007896c..000000000 --- "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.1 \346\267\261\345\272\246\345\255\246\344\271\240\345\237\272\347\241\200\347\237\245\350\257\206.md.txt" +++ /dev/null @@ -1,24 +0,0 @@ -# 0.1 深度学习基础知识 - -考虑到我们的学习者中不乏有着零基础的初学者,如果不了解概念的基础知识可能会对理解和学习出现困难,因此在这一章中,我们将针对零基础的初学者们,用一些通俗的语言并且结合自己的理解讲述深度学习的一些基础知识。 - -经过本节的学习,你将收获: - -- 了解机器学习、深度学习和人工智能之间的关系 -- 了解深度学习中的名词含义 -- 了解人工智能发展简史 - -## 一、人工智能发展简史 -## 二、深度学习、机器学习和人工智能的关系 -### 神经网络 -### 卷积 -### 激活函数 -### 优化器 -### 池化 -### 反向传播 -### 随机丢弃 -### 批量归一化 -### 损失函数 -## 三、计算机视觉简介 -## 四、自然语言处理简介 - diff --git "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.2 \346\225\260\345\255\246\345\237\272\347\241\200\347\237\245\350\257\206.md.txt" "b/docs/_sources/\347\254\254\351\233\266\347\253\240/0.2 \346\225\260\345\255\246\345\237\272\347\241\200\347\237\245\350\257\206.md.txt" deleted file mode 100644 index 6db4a2560..000000000 --- "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.2 \346\225\260\345\255\246\345\237\272\347\241\200\347\237\245\350\257\206.md.txt" +++ /dev/null @@ -1,19 +0,0 @@ -### BP反向传播 -## 分类问题的度量 -### 混淆矩阵 -### Accuracy -### Precision -### Recall -### F1 score -### ROC -## 回归指标 -### R squared -### Mallow's Cp -### AIC,BIC -## 模型选择 -### 交叉验证 -### 正则化 -## 诊断 -### 偏差/方差均衡 -### 错误分析 -### 烧灼分析 \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.3 \345\270\270\347\224\250\345\214\205\347\232\204\345\255\246\344\271\240.md.txt" "b/docs/_sources/\347\254\254\351\233\266\347\253\240/0.3 \345\270\270\347\224\250\345\214\205\347\232\204\345\255\246\344\271\240.md.txt" deleted file mode 100644 index 08dab5cb7..000000000 --- "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.3 \345\270\270\347\224\250\345\214\205\347\232\204\345\255\246\344\271\240.md.txt" +++ /dev/null @@ -1,4 +0,0 @@ -# 常用包的学习 -## Numpy -## pandas -## matplotlib \ No newline at end of file diff --git "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.4 Jupyter\347\233\270\345\205\263\346\223\215\344\275\234.md.txt" "b/docs/_sources/\347\254\254\351\233\266\347\253\240/0.4 Jupyter\347\233\270\345\205\263\346\223\215\344\275\234.md.txt" deleted file mode 100644 index c01d37581..000000000 --- "a/docs/_sources/\347\254\254\351\233\266\347\253\240/0.4 Jupyter\347\233\270\345\205\263\346\223\215\344\275\234.md.txt" +++ /dev/null @@ -1,366 +0,0 @@ -# Jupyter notebook/Lab 简述 -在数据科学,机器学习,深度学习中,我们希望即时进行图像的可视化和函数的计算,基于这种需求,人们开发出了基于网页的用于交互计算的应用程序Jupyter Notebook。在我们的教程代码也是基于Jupyter notebook。除此之外,它们可被应用于全过程计算:开发、文档编写、运行代码和展示结果。在Jupyter Notebook中编写的文档保存为`.ipynb`的`JSON`格式文件,文档可以导出为HTML、LaTeX、markdown、PDF等格式。Jupyter Notebook的主要特点有: - -* 编程时具有**语法高亮**、*缩进*、*tab补全*的功能。 - -* 可直接通过浏览器运行代码,同时在代码块下方展示运行结果。 - -* 以富媒体格式展示计算结果。富媒体格式包括:HTML,LaTeX,PNG,SVG等。 - -* 对代码编写说明文档或语句时,支持Markdown语法。 - -* 支持使用LaTeX编写数学性说明。 - -除此之外,好用的Jupyter Notebook还有个“双胞胎”——Jupyter Lab。Jupyter Lab是基于Web的集成开发环境,可以把它当作进化版的Jupyter Notebook。使用Jupyter Lab可以同时在一个浏览器页面打开编辑多个Notebook、Ipython console和terminal终端,甚至可以使用Jupyter Lab连接Google Drive等服务。由于Jupyter Lab拥有模块化结构,提供更多类似IDE的体验,已经有越来越多的人从使用Jupyter Notebook转向使用Jupyter Lab。 - - - -[* ]通过本章学习,你将收获: - -* 安装和配置Jupyter Notebook和Jupyter Lab的方法 -* Jupyter Notebook的基本操作和快捷键 -* 使用Jupyter Notebook编写代码的方式 -* 了解Jupyter Notebook的Bash命令和魔术命令 -* 为Jupyter Notebook安装拓展插件的方法 - -## 1 Jupyter Notebook/Lab安装 - - 1. 安装Jupyter Notebook:激活虚拟环境后,我们只需要在终端输入指令 - - ```python - conda install jupyter notebook - # pip install jupyter notebook - ``` - -* 注:如果pip版本过低,还需提前运行更新pip的指令 - - ```python - pip install --upgrade pip - ``` - -2. 安装Jupyter Lab:激活环境后,我们同样也只需要在终端输入指令 - - ```python - conda install -c conda-forge jupyterlab - # pip install jupyterlab - ``` - -3. 在终端输入指令打开Jupyter Notebook - - ```python - jupyter notebook # 打开Jupyter Notebook - jupyter lab # 打开Jupyter Lab - ``` - -* 如果浏览器没有自动打开Jupyter Notebook或者Jupyter Lab,复制端口信息粘贴至浏览器打开 - - ![image-20220812162810305](figures/image-20220812162810305.png) - - -* 如果想要自定义端口,在终端输入如下指令修改 - - ```python - jupyter notebook --port - ``` - -* 如果想启动服务器但不打开浏览器,可以在终端输入 - - ```python - jupyter notebook --no-browser - ``` - - - -## 2 Jupyter Notebook/Lab配置 - -### 2.1 设置文件存放位置 - -​ 在使用Jupyter Notebook/Jupyter Lab时,如果我们想要更改默认文件存放路径,该怎么办? - -* Jupyter Notebook - -1. 我们首先需要查看配置文件,只需要在终端输入 - - ```python - jupyter notebook --generate-config - ``` - -2. 我们记住出现配置文件的路径,复制到文件夹中打开(终端这里可以写N) - -image-20220716235510697 - -4. 在文件夹中双击打开配置文件 - -image-20220716235540827 - -5. 打开Python文件后,用`Ctrl+F`快捷键查找,输入关键词,找到`# c.NotebookApp.notebook_dir = ''` - -6. 去掉注释,并填充路径`c.NotebookApp.notebook_dir = 'D:\\Adatascience'` - -image-20220804170455298 - -7. 此时我们在终端中输入`jupyter notebook`,打开页面后发现文件默认路径已经被更改。但是点击菜单栏中的应用快捷方式打开Jupyter Notebook,打开页面发现文件位置仍然是默认路径 - -image-20220716235931573 - -8. 如果我们想要更改应用快捷方式Jupyter Notebook的文件位置,此时需要右键选中快捷方式,打开文件所在位置。再右键点击快捷方式,查看属性,再点击快捷方式 - -image-20220717000530228 - -image-20220804171027983 - -9. 我们只需要在“目标”中删除红框标记部分,点击确定 - -image-20220717001243904 - -10. 此时再打开菜单栏中Jupyter Notebook的快捷方式,发现页面文件路径已经变为之前自主设置的路径啦! - - - -* Jupyter Lab的修改操作和Jupyter Notebook流程相似,但是在细节上有些不同 - -1. 同样我们还是首先需要查看配置文件,在终端输入 - - ```python - jupyter lab --generate-config - ``` - -2. 找到配置文件所在的文件夹,打开配置文件 - -3. 修改配置文件时,用`Ctrl+F`快捷键查找,输入关键词,找到`# c.ServerApp.notebook_dir`,去掉注释。改为`c.ServerApp.notebook_dir = 'D:\\Adatascience(这里填自己想改的文件路径)'` - -4. 之后的步骤和Jupyter Notebook修改配置文件的第七至第十步相同 - -### 2.2 使用虚拟环境 - -​ 需要注意的是,Anaconda安装的虚拟环境和Jupyter Notebook运行需要的Kernel并不互通。那么我们该如何解决这个问题,并且如果我们想要切换内核(Change Kernel),该如何操作呢? - -1. 将在Anaconda中创建的虚拟环境添加`ipykernel` - -```python -# 如果还没创建环境,在创建时要加上ipykernel -conda create -n env_name python=3.8 ipykernel -# 如果已经创建环境,在环境中安装ipykernel -pip install ipykernel -``` - -2. 将虚拟环境写进Jupyter - -```python -python -m ipykernel install --user --name env_name --display-name "env_name" -``` - -3. 在`Kernel`中更换添加的虚拟环境即可 - -image-20220812171025719 - -## 3 Jupyter Notebook\Lab基本操作 - -### 3.1 基本使用 - -#### 3.1.1 Jupyter Notebook - -1. 创建文件:点击右上角New,选择Notebook;创建文件夹:点击右上角New,选择Folder - -image-20220805024106987 - -2. 删除文件:点击文件前的方框,再点击删除图标 - -image-20220805030406608 - -3. 重命名文件:当文件在运行时(即文件前图标为绿色),需要先点击“Shutdown”(关闭终端),再点击“Rename” - -image-20220805031209481 - -4. 重命名文件夹:点击文件夹前的方框,再点击“Rename” -5. 复制(Duplicate)、移动(Move)、下载(Download)、查看(View)等操作,同样可以点击文件前的方框,再点上方的图标进行操作 - -#### 3.1.2 Jupyter Lab - -1. 红框内按钮从左到右分别是新建文件、新建文件夹、上传文件和刷新 - -![image-20220805033034092](figures/image-20220805033034092.png) - -2. 上传多个文件的方法: - -* 将文件打包成一个zip压缩包 -* 上传该压缩包 -* 解压文件`!unzip (压缩包所在路径) -d (解压路径)`,例如:`!unzip coco.zip -d data/coco` -* 删除该压缩包 - - - -### 3.2 常用快捷键 - -1. 入门操作 - - ```python - # 增加,减少,剪切,保存,删除等 - # a, b, x, s, dd - - # 合并,执行本单元代码,并跳转到下一单元,执行本单元代码,留在本单元 - # Shift+M Shift+Enter Ctrl+Enter - - # 显示行数,切换markdown/code - # l, m/y - ``` - -2. Jupyter Notebook中按下Enter进入编辑模式,按下Esc进入命令模式 - -* **编辑模式(绿色)** - - ![image-20220805144702521](figures/image-20220805144702521.png) - -* **命令模式(蓝色)** - - ![image-20220805144722375](figures/image-20220805144722375.png) - -* 在命令模式下,点击h,会弹出快捷键窗口 - -image-20220805144803441 - -3. Jupyter Lab同样有两种模式。按下Enter进入编辑模式,按下Esc进入命令模式 - -* 编辑模式(有框线无光标) - -![image-20220805145218241](figures/image-20220805145218241.png) - -* 命令模式(无框线无光标) - -![image-20220805150721875](figures/image-20220805150721875.png) - -* 快捷键操作与Jupyter Notebook基本相同,可参考上一部分 - -4. 快捷键汇总 - -​ 命令模式(按`Esc`) - -- **Enter** : 转入编辑模式 -- **Shift-Enter** : 运行本单元,选中下个单元 -- **Ctrl-Enter** : 运行本单元 -- **Alt-Enter** : 运行本单元,在其下插入新单元 -- **Y** : 单元转入代码状态 -- **M** :单元转入markdown状态 -- **R** : 单元转入raw状态 -- **1** : 设定 1 级标题 -- **2** : 设定 2 级标题 -- **3** : 设定 3 级标题 -- **4** : 设定 4 级标题 -- **5** : 设定 5 级标题 -- **6** : 设定 6 级标题 -- **Up** : 选中上方单元 -- **K** : 选中上方单元 -- **Down** : 选中下方单元 -- **J** : 选中下方单元 -- **Shift-K** : 扩大选中上方单元 -- **Shift-J** : 扩大选中下方单元 -- **A** : 在上方插入新单元 -- **B** : 在下方插入新单元 -- **X** : 剪切选中的单元 -- **C** : 复制选中的单元 -- **Shift-V** : 粘贴到上方单元 -- **V** : 粘贴到下方单元 -- **Z** : 恢复删除的最后一个单元 -- **D,D** : 删除选中的单元 -- **Shift-M** : 合并选中的单元 -- **Ctrl-S** : 文件存盘 -- **S** : 文件存盘 -- **L** : 转换行号 -- **O** : 转换输出 -- **Shift-O** : 转换输出滚动 -- **Esc** : 关闭页面 -- **Q** : 关闭页面 -- **H** : 显示快捷键帮助 -- **I,I** : 中断Notebook内核 -- **0,0** : 重启Notebook内核 -- **Shift** : 忽略 -- **Shift-Space** : 向上滚动 -- **Space** : 向下滚动 - -​ 编辑模式(按`Enter`) - -- **Tab** : 代码补全或缩进 -- **Shift-Tab** : 提示 -- **Ctrl-]** : 缩进 -- **Ctrl-[** : 解除缩进 -- **Ctrl-A** : 全选 -- **Ctrl-Z** : 复原 -- **Ctrl-Shift-Z** : 再做 -- **Ctrl-Y** : 再做 -- **Ctrl-Home** : 跳到单元开头 -- **Ctrl-Up** : 跳到单元开头 -- **Ctrl-End** : 跳到单元末尾 -- **Ctrl-Down** : 跳到单元末尾 -- **Ctrl-Left** : 跳到左边一个字首 -- **Ctrl-Right** : 跳到右边一个字首 -- **Ctrl-Backspace** : 删除前面一个字 -- **Ctrl-Delete** : 删除后面一个字 -- **Esc** : 进入命令模式 -- **Ctrl-M** : 进入命令模式 -- **Shift-Enter** : 运行本单元,选中下一单元 -- **Ctrl-Enter** : 运行本单元 -- **Alt-Enter** : 运行本单元,在下面插入一单元 -- **Ctrl-Shift--** : 分割单元 -- **Ctrl-Shift-Subtract** : 分割单元 -- **Ctrl-S** : 文件存盘 -- **Shift** : 忽略 -- **Up** : 光标上移或转入上一单元 -- **Down** :光标下移或转入下一单元 - -### 3.3 安装插件 - -* Jupyter Notebook安装插件的方法 - -1. 在Anaconda Powershell Prompt中输入 - - ```python - pip install jupyter_contrib_nbextensions - ``` - -2. 再次输入以下指令,将插件添加到工具栏 - - ```python - jupyter contrib nbextension install - ``` - -3. 打开Jupyter Notebook,点击Nbextensions,取消勾选`disable configuration for nbextensions without explicit compatibility`,此时可以添加自己喜欢的插件啦! - -image-20220805151600140 - -4. 推荐以下两个基础插件 - -* Execute Time:可以显示执行一个Cell要花费多少时间 -* Hinterland:提供代码补全功能 - - - -* Jupyter Lab安装插件的方法 - -1. Jupyter Lab安装插件点击左侧的第四个标志,点击“Enable”后就可以在搜索栏中搜索想要的插件 - -image-20220805152331777 - -2. 例如搜索`jupyterlab-execute-time`后,在Search Results中查看结果,点击Install便可安装插件 - -image-20220805152507891 - -3. 还可以在Anaconda Powershell Prompt中使用指令来安装插件 - - ```python - jupyter labextension install jupyterlab-execute-time # 安装jupyterlab-execute-time - ``` - - - -## 4 进阶操作 - -​ 除了以上操作,Jupyter Notebook还有许多丰富的内容等待大家探索。如Bash命令、魔术命令等。我们为大家提供了一份在Notebook中编写的进阶操作,快来试试看吧~ - -​ [点击查看进阶教程](https://github.com/datawhalechina/thorough-pytorch/blob/main/notebook/%E7%AC%AC%E9%9B%B6%E7%AB%A0%20%E5%89%8D%E7%BD%AE%E7%9F%A5%E8%AF%86%E8%A1%A5%E5%85%85/%E8%BF%9B%E9%98%B6%E6%93%8D%E4%BD%9C.ipynb) - - - -## 5 参考资料 - -【1】[Jupyter Notebook介绍、安装及使用教程 - 知乎 (zhihu.com)](https://zhuanlan.zhihu.com/p/33105153) - diff --git "a/docs/_sources/\347\254\254\351\233\266\347\253\240/index.md.txt" "b/docs/_sources/\347\254\254\351\233\266\347\253\240/index.md.txt" deleted file mode 100644 index 5d8c72a79..000000000 --- "a/docs/_sources/\347\254\254\351\233\266\347\253\240/index.md.txt" +++ /dev/null @@ -1,8 +0,0 @@ -# 第零章:前置知识 -```{toctree} -:maxdepth: 2 -0.1 人工智能简史 -0.2 评价指标 -0.3 常用包的学习 -0.4 Jupyter相关操作 -``` \ No newline at end of file diff --git a/docs/_static/basic.css b/docs/_static/basic.css deleted file mode 100644 index d54be8067..000000000 --- a/docs/_static/basic.css +++ /dev/null @@ -1,906 +0,0 @@ -/* - * basic.css - * ~~~~~~~~~ - * - * Sphinx stylesheet -- basic theme. - * - * :copyright: Copyright 2007-2022 by the Sphinx team, see AUTHORS. - * :license: BSD, see LICENSE for details. - * - */ - -/* -- main layout ----------------------------------------------------------- */ - -div.clearer { - clear: both; -} - -div.section::after { - display: block; - content: ''; - clear: left; -} - -/* -- relbar ---------------------------------------------------------------- */ - -div.related { - width: 100%; - font-size: 90%; -} - -div.related h3 { - display: none; -} - -div.related ul { - margin: 0; - padding: 0 0 0 10px; - list-style: none; -} - -div.related li { - display: inline; -} - -div.related li.right { - float: right; - margin-right: 5px; -} - -/* -- sidebar --------------------------------------------------------------- */ - -div.sphinxsidebarwrapper { - padding: 10px 5px 0 10px; -} - -div.sphinxsidebar { - float: left; - width: 270px; - margin-left: -100%; - font-size: 90%; - word-wrap: break-word; - overflow-wrap : break-word; -} - -div.sphinxsidebar ul { - list-style: none; -} - -div.sphinxsidebar ul ul, -div.sphinxsidebar ul.want-points { - margin-left: 20px; - list-style: square; -} - -div.sphinxsidebar ul ul { - margin-top: 0; - margin-bottom: 0; -} - -div.sphinxsidebar form { - margin-top: 10px; -} - -div.sphinxsidebar input { - border: 1px solid #98dbcc; - font-family: sans-serif; - font-size: 1em; -} - -div.sphinxsidebar #searchbox form.search { - overflow: hidden; -} - -div.sphinxsidebar #searchbox input[type="text"] { - float: left; - width: 80%; - padding: 0.25em; - box-sizing: border-box; -} - -div.sphinxsidebar #searchbox input[type="submit"] { - float: left; - width: 20%; - border-left: none; - padding: 0.25em; - box-sizing: border-box; -} - - -img { - border: 0; - max-width: 100%; -} - -/* -- search page ----------------------------------------------------------- */ - -ul.search { - margin: 10px 0 0 20px; - padding: 0; -} - -ul.search li { - padding: 5px 0 5px 20px; - background-image: url(file.png); - background-repeat: no-repeat; - background-position: 0 7px; -} - -ul.search li a { - font-weight: bold; -} - -ul.search li p.context { - color: #888; - margin: 2px 0 0 30px; - text-align: left; -} - -ul.keywordmatches li.goodmatch a { - font-weight: bold; -} - -/* -- index page ------------------------------------------------------------ */ - -table.contentstable { - width: 90%; - margin-left: auto; - margin-right: auto; -} - -table.contentstable p.biglink { - line-height: 150%; -} - -a.biglink { - font-size: 1.3em; -} - -span.linkdescr { - font-style: italic; - padding-top: 5px; - font-size: 90%; -} - -/* -- general index --------------------------------------------------------- */ - -table.indextable { - width: 100%; -} - -table.indextable td { - text-align: left; - vertical-align: top; -} - -table.indextable ul { - margin-top: 0; - margin-bottom: 0; - list-style-type: none; -} - -table.indextable > tbody > tr > td > ul { - padding-left: 0em; -} - -table.indextable tr.pcap { - height: 10px; -} - -table.indextable tr.cap { - margin-top: 10px; - background-color: #f2f2f2; -} - -img.toggler { - margin-right: 3px; - margin-top: 3px; - cursor: pointer; -} - -div.modindex-jumpbox { - border-top: 1px solid #ddd; - border-bottom: 1px solid #ddd; - margin: 1em 0 1em 0; - padding: 0.4em; -} - -div.genindex-jumpbox { - border-top: 1px solid #ddd; - border-bottom: 1px solid #ddd; - margin: 1em 0 1em 0; - padding: 0.4em; -} - -/* -- domain module index --------------------------------------------------- */ - -table.modindextable td { - padding: 2px; - border-collapse: collapse; -} - -/* -- general body styles --------------------------------------------------- */ - -div.body { - min-width: 450px; - max-width: 800px; -} - -div.body p, div.body dd, div.body li, div.body blockquote { - -moz-hyphens: auto; - -ms-hyphens: auto; - -webkit-hyphens: auto; - hyphens: auto; -} - -a.headerlink { - visibility: hidden; -} - -a.brackets:before, -span.brackets > a:before{ - content: "["; -} - -a.brackets:after, -span.brackets > a:after { - content: "]"; -} - -h1:hover > a.headerlink, -h2:hover > a.headerlink, -h3:hover > a.headerlink, -h4:hover > a.headerlink, -h5:hover > a.headerlink, -h6:hover > a.headerlink, -dt:hover > a.headerlink, -caption:hover > a.headerlink, -p.caption:hover > a.headerlink, -div.code-block-caption:hover > a.headerlink { - visibility: visible; -} - -div.body p.caption { - text-align: inherit; -} - -div.body td { - text-align: left; -} - -.first { - margin-top: 0 !important; -} - -p.rubric { - margin-top: 30px; - font-weight: bold; -} - -img.align-left, figure.align-left, .figure.align-left, object.align-left { - clear: left; - float: left; - margin-right: 1em; -} - -img.align-right, figure.align-right, .figure.align-right, object.align-right { - clear: right; - float: right; - margin-left: 1em; -} - -img.align-center, figure.align-center, .figure.align-center, object.align-center { - display: block; - margin-left: auto; - margin-right: auto; -} - -img.align-default, figure.align-default, .figure.align-default { - display: block; - margin-left: auto; - margin-right: auto; -} - -.align-left { - text-align: left; -} - -.align-center { - text-align: center; -} - -.align-default { - text-align: center; -} - -.align-right { - text-align: right; -} - -/* -- sidebars -------------------------------------------------------------- */ - -div.sidebar, -aside.sidebar { - margin: 0 0 0.5em 1em; - border: 1px solid #ddb; - padding: 7px; - background-color: #ffe; - width: 40%; - float: right; - clear: right; - overflow-x: auto; -} - -p.sidebar-title { - font-weight: bold; -} - -div.admonition, div.topic, blockquote { - clear: left; -} - -/* -- topics ---------------------------------------------------------------- */ - -div.topic { - border: 1px solid #ccc; - padding: 7px; - margin: 10px 0 10px 0; -} - -p.topic-title { - font-size: 1.1em; - font-weight: bold; - margin-top: 10px; -} - -/* -- admonitions ----------------------------------------------------------- */ - -div.admonition { - margin-top: 10px; - margin-bottom: 10px; - padding: 7px; -} - -div.admonition dt { - font-weight: bold; -} - -p.admonition-title { - margin: 0px 10px 5px 0px; - font-weight: bold; -} - -div.body p.centered { - text-align: center; - margin-top: 25px; -} - -/* -- content of sidebars/topics/admonitions -------------------------------- */ - -div.sidebar > :last-child, -aside.sidebar > :last-child, -div.topic > :last-child, -div.admonition > :last-child { - margin-bottom: 0; -} - -div.sidebar::after, -aside.sidebar::after, -div.topic::after, -div.admonition::after, -blockquote::after { - display: block; - content: ''; - clear: both; -} - -/* -- tables ---------------------------------------------------------------- */ - -table.docutils { - margin-top: 10px; - margin-bottom: 10px; - border: 0; - border-collapse: collapse; -} - -table.align-center { - margin-left: auto; - margin-right: auto; -} - -table.align-default { - margin-left: auto; - margin-right: auto; -} - -table caption span.caption-number { - font-style: italic; -} - -table caption span.caption-text { -} - -table.docutils td, table.docutils th { - padding: 1px 8px 1px 5px; - border-top: 0; - border-left: 0; - border-right: 0; - border-bottom: 1px solid #aaa; -} - -table.footnote td, table.footnote th { - border: 0 !important; -} - -th { - text-align: left; - padding-right: 5px; -} - -table.citation { - border-left: solid 1px gray; - margin-left: 1px; -} - -table.citation td { - border-bottom: none; -} - -th > :first-child, -td > :first-child { - margin-top: 0px; -} - -th > :last-child, -td > :last-child { - margin-bottom: 0px; -} - -/* -- figures --------------------------------------------------------------- */ - -div.figure, figure { - margin: 0.5em; - padding: 0.5em; -} - -div.figure p.caption, figcaption { - padding: 0.3em; -} - -div.figure p.caption span.caption-number, -figcaption span.caption-number { - font-style: italic; -} - -div.figure p.caption span.caption-text, -figcaption span.caption-text { -} - -/* -- field list styles ----------------------------------------------------- */ - -table.field-list td, table.field-list th { - border: 0 !important; -} - -.field-list ul { - margin: 0; - padding-left: 1em; -} - -.field-list p { - margin: 0; -} - -.field-name { - -moz-hyphens: manual; - -ms-hyphens: manual; - -webkit-hyphens: manual; - hyphens: manual; -} - -/* -- hlist styles ---------------------------------------------------------- */ - -table.hlist { - margin: 1em 0; -} - -table.hlist td { - vertical-align: top; -} - -/* -- object description styles --------------------------------------------- */ - -.sig { - font-family: 'Consolas', 'Menlo', 'DejaVu Sans Mono', 'Bitstream Vera Sans Mono', monospace; -} - -.sig-name, code.descname { - background-color: transparent; - font-weight: bold; -} - -.sig-name { - font-size: 1.1em; -} - -code.descname { - font-size: 1.2em; -} - -.sig-prename, code.descclassname { - background-color: transparent; -} - -.optional { - font-size: 1.3em; -} - -.sig-paren { - font-size: larger; -} - -.sig-param.n { - font-style: italic; -} - -/* C++ specific styling */ - -.sig-inline.c-texpr, -.sig-inline.cpp-texpr { - font-family: unset; -} - -.sig.c .k, .sig.c .kt, -.sig.cpp .k, .sig.cpp .kt { - color: #0033B3; -} - -.sig.c .m, -.sig.cpp .m { - color: #1750EB; -} - -.sig.c .s, .sig.c .sc, -.sig.cpp .s, .sig.cpp .sc { - color: #067D17; -} - - -/* -- other body styles ----------------------------------------------------- */ - -ol.arabic { - list-style: decimal; -} - -ol.loweralpha { - list-style: lower-alpha; -} - -ol.upperalpha { - list-style: upper-alpha; -} - -ol.lowerroman { - list-style: lower-roman; -} - -ol.upperroman { - list-style: upper-roman; -} - -:not(li) > ol > li:first-child > :first-child, -:not(li) > ul > li:first-child > :first-child { - margin-top: 0px; -} - -:not(li) > ol > li:last-child > :last-child, -:not(li) > ul > li:last-child > :last-child { - margin-bottom: 0px; -} - -ol.simple ol p, -ol.simple ul p, -ul.simple ol p, -ul.simple ul p { - margin-top: 0; -} - -ol.simple > li:not(:first-child) > p, -ul.simple > li:not(:first-child) > p { - margin-top: 0; -} - -ol.simple p, -ul.simple p { - margin-bottom: 0; -} - -dl.footnote > dt, -dl.citation > dt { - float: left; - margin-right: 0.5em; -} - -dl.footnote > dd, -dl.citation > dd { - margin-bottom: 0em; -} - -dl.footnote > dd:after, -dl.citation > dd:after { - content: ""; - clear: both; -} - -dl.field-list { - display: grid; - grid-template-columns: fit-content(30%) auto; -} - -dl.field-list > dt { - font-weight: bold; - word-break: break-word; - padding-left: 0.5em; - padding-right: 5px; -} - -dl.field-list > dt:after { - content: ":"; -} - -dl.field-list > dd { - padding-left: 0.5em; - margin-top: 0em; - margin-left: 0em; - margin-bottom: 0em; -} - -dl { - margin-bottom: 15px; -} - -dd > :first-child { - margin-top: 0px; -} - -dd ul, dd table { - margin-bottom: 10px; -} - -dd { - margin-top: 3px; - margin-bottom: 10px; - margin-left: 30px; -} - -dl > dd:last-child, -dl > dd:last-child > :last-child { - margin-bottom: 0; -} - -dt:target, span.highlighted { - background-color: #fbe54e; -} - -rect.highlighted { - fill: #fbe54e; -} - -dl.glossary dt { - font-weight: bold; - font-size: 1.1em; -} - -.versionmodified { - font-style: italic; -} - -.system-message { - background-color: #fda; - padding: 5px; - border: 3px solid red; -} - -.footnote:target { - background-color: #ffa; -} - -.line-block { - display: block; - margin-top: 1em; - margin-bottom: 1em; -} - -.line-block .line-block { - margin-top: 0; - margin-bottom: 0; - margin-left: 1.5em; -} - -.guilabel, .menuselection { - font-family: sans-serif; -} - -.accelerator { - text-decoration: underline; -} - -.classifier { - font-style: oblique; -} - -.classifier:before { - font-style: normal; - margin: 0 0.5em; - content: ":"; - display: inline-block; -} - -abbr, acronym { - border-bottom: dotted 1px; - cursor: help; -} - -/* -- code displays --------------------------------------------------------- */ - -pre { - overflow: auto; - overflow-y: hidden; /* fixes display issues on Chrome browsers */ -} - -pre, div[class*="highlight-"] { - clear: both; -} - -span.pre { - -moz-hyphens: none; - -ms-hyphens: none; - -webkit-hyphens: none; - hyphens: none; - white-space: nowrap; -} - -div[class*="highlight-"] { - margin: 1em 0; -} - -td.linenos pre { - border: 0; - background-color: transparent; - color: #aaa; -} - -table.highlighttable { - display: block; -} - -table.highlighttable tbody { - display: block; -} - -table.highlighttable tr { - display: flex; -} - -table.highlighttable td { - margin: 0; - padding: 0; -} - -table.highlighttable td.linenos { - padding-right: 0.5em; -} - -table.highlighttable td.code { - flex: 1; - overflow: hidden; -} - -.highlight .hll { - display: block; -} - -div.highlight pre, -table.highlighttable pre { - margin: 0; -} - -div.code-block-caption + div { - margin-top: 0; -} - -div.code-block-caption { - margin-top: 1em; - padding: 2px 5px; - font-size: small; -} - -div.code-block-caption code { - background-color: transparent; -} - -table.highlighttable td.linenos, -span.linenos, -div.highlight span.gp { /* gp: Generic.Prompt */ - user-select: none; - -webkit-user-select: text; /* Safari fallback only */ - -webkit-user-select: none; /* Chrome/Safari */ - -moz-user-select: none; /* Firefox */ - -ms-user-select: none; /* IE10+ */ -} - -div.code-block-caption span.caption-number { - padding: 0.1em 0.3em; - font-style: italic; -} - -div.code-block-caption span.caption-text { -} - -div.literal-block-wrapper { - margin: 1em 0; -} - -code.xref, a code { - background-color: transparent; - font-weight: bold; -} - -h1 code, h2 code, h3 code, h4 code, h5 code, h6 code { - background-color: transparent; -} - -.viewcode-link { - float: right; -} - -.viewcode-back { - float: right; - font-family: sans-serif; -} - -div.viewcode-block:target { - margin: -1px -10px; - padding: 0 10px; -} - -/* -- math display ---------------------------------------------------------- */ - -img.math { - vertical-align: middle; -} - -div.body div.math p { - text-align: center; -} - -span.eqno { - float: right; -} - -span.eqno a.headerlink { - position: absolute; - z-index: 1; -} - -div.math:hover a.headerlink { - visibility: visible; -} - -/* -- printout stylesheet --------------------------------------------------- */ - -@media print { - div.document, - div.documentwrapper, - div.bodywrapper { - margin: 0 !important; - width: 100%; - } - - div.sphinxsidebar, - div.related, - div.footer, - #top-link { - display: none; - } -} \ No newline at end of file diff --git a/docs/_static/doctools.js b/docs/_static/doctools.js deleted file mode 100644 index e1bfd708b..000000000 --- a/docs/_static/doctools.js +++ /dev/null @@ -1,358 +0,0 @@ -/* - * doctools.js - * ~~~~~~~~~~~ - * - * Sphinx JavaScript utilities for all documentation. - * - * :copyright: Copyright 2007-2022 by the Sphinx team, see AUTHORS. - * :license: BSD, see LICENSE for details. - * - */ - -/** - * select a different prefix for underscore - */ -$u = _.noConflict(); - -/** - * make the code below compatible with browsers without - * an installed firebug like debugger -if (!window.console || !console.firebug) { - var names = ["log", "debug", "info", "warn", "error", "assert", "dir", - "dirxml", "group", "groupEnd", "time", "timeEnd", "count", "trace", - "profile", "profileEnd"]; - window.console = {}; - for (var i = 0; i < names.length; ++i) - window.console[names[i]] = function() {}; -} - */ - -/** - * small helper function to urldecode strings - * - * See https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/decodeURIComponent#Decoding_query_parameters_from_a_URL - */ -jQuery.urldecode = function(x) { - if (!x) { - return x - } - return decodeURIComponent(x.replace(/\+/g, ' ')); -}; - -/** - * small helper function to urlencode strings - */ -jQuery.urlencode = encodeURIComponent; - -/** - * This function returns the parsed url parameters of the - * current request. Multiple values per key are supported, - * it will always return arrays of strings for the value parts. - */ -jQuery.getQueryParameters = function(s) { - if (typeof s === 'undefined') - s = document.location.search; - var parts = s.substr(s.indexOf('?') + 1).split('&'); - var result = {}; - for (var i = 0; i < parts.length; i++) { - var tmp = parts[i].split('=', 2); - var key = jQuery.urldecode(tmp[0]); - var value = jQuery.urldecode(tmp[1]); - if (key in result) - result[key].push(value); - else - result[key] = [value]; - } - return result; -}; - -/** - * highlight a given string on a jquery object by wrapping it in - * span elements with the given class name. - */ -jQuery.fn.highlightText = function(text, className) { - function highlight(node, addItems) { - if (node.nodeType === 3) { - var val = node.nodeValue; - var pos = val.toLowerCase().indexOf(text); - if (pos >= 0 && - !jQuery(node.parentNode).hasClass(className) && - !jQuery(node.parentNode).hasClass("nohighlight")) { - var span; - var isInSVG = jQuery(node).closest("body, svg, foreignObject").is("svg"); - if (isInSVG) { - span = document.createElementNS("http://www.w3.org/2000/svg", "tspan"); - } else { - span = document.createElement("span"); - span.className = className; - } - span.appendChild(document.createTextNode(val.substr(pos, text.length))); - node.parentNode.insertBefore(span, node.parentNode.insertBefore( - document.createTextNode(val.substr(pos + text.length)), - node.nextSibling)); - node.nodeValue = val.substr(0, pos); - if (isInSVG) { - var rect = document.createElementNS("http://www.w3.org/2000/svg", "rect"); - var bbox = node.parentElement.getBBox(); - rect.x.baseVal.value = bbox.x; - rect.y.baseVal.value = bbox.y; - rect.width.baseVal.value = bbox.width; - rect.height.baseVal.value = bbox.height; - rect.setAttribute('class', className); - addItems.push({ - "parent": node.parentNode, - "target": rect}); - } - } - } - else if (!jQuery(node).is("button, select, textarea")) { - jQuery.each(node.childNodes, function() { - highlight(this, addItems); - }); - } - } - var addItems = []; - var result = this.each(function() { - highlight(this, addItems); - }); - for (var i = 0; i < addItems.length; ++i) { - jQuery(addItems[i].parent).before(addItems[i].target); - } - return result; -}; - -/* - * backward compatibility for jQuery.browser - * This will be supported until firefox bug is fixed. - */ -if (!jQuery.browser) { - jQuery.uaMatch = function(ua) { - ua = ua.toLowerCase(); - - var match = /(chrome)[ \/]([\w.]+)/.exec(ua) || - /(webkit)[ \/]([\w.]+)/.exec(ua) || - /(opera)(?:.*version|)[ \/]([\w.]+)/.exec(ua) || - /(msie) ([\w.]+)/.exec(ua) || - ua.indexOf("compatible") < 0 && /(mozilla)(?:.*? rv:([\w.]+)|)/.exec(ua) || - []; - - return { - browser: match[ 1 ] || "", - version: match[ 2 ] || "0" - }; - }; - jQuery.browser = {}; - jQuery.browser[jQuery.uaMatch(navigator.userAgent).browser] = true; -} - -/** - * Small JavaScript module for the documentation. - */ -var Documentation = { - - init : function() { - this.fixFirefoxAnchorBug(); - this.highlightSearchWords(); - this.initIndexTable(); - this.initOnKeyListeners(); - }, - - /** - * i18n support - */ - TRANSLATIONS : {}, - PLURAL_EXPR : function(n) { return n === 1 ? 0 : 1; }, - LOCALE : 'unknown', - - // gettext and ngettext don't access this so that the functions - // can safely bound to a different name (_ = Documentation.gettext) - gettext : function(string) { - var translated = Documentation.TRANSLATIONS[string]; - if (typeof translated === 'undefined') - return string; - return (typeof translated === 'string') ? translated : translated[0]; - }, - - ngettext : function(singular, plural, n) { - var translated = Documentation.TRANSLATIONS[singular]; - if (typeof translated === 'undefined') - return (n == 1) ? singular : plural; - return translated[Documentation.PLURALEXPR(n)]; - }, - - addTranslations : function(catalog) { - for (var key in catalog.messages) - this.TRANSLATIONS[key] = catalog.messages[key]; - this.PLURAL_EXPR = new Function('n', 'return +(' + catalog.plural_expr + ')'); - this.LOCALE = catalog.locale; - }, - - /** - * add context elements like header anchor links - */ - addContextElements : function() { - $('div[id] > :header:first').each(function() { - $('\u00B6'). - attr('href', '#' + this.id). - attr('title', _('Permalink to this headline')). - appendTo(this); - }); - $('dt[id]').each(function() { - $('\u00B6'). - attr('href', '#' + this.id). - attr('title', _('Permalink to this definition')). - appendTo(this); - }); - }, - - /** - * workaround a firefox stupidity - * see: https://bugzilla.mozilla.org/show_bug.cgi?id=645075 - */ - fixFirefoxAnchorBug : function() { - if (document.location.hash && $.browser.mozilla) - window.setTimeout(function() { - document.location.href += ''; - }, 10); - }, - - /** - * highlight the search words provided in the url in the text - */ - highlightSearchWords : function() { - var params = $.getQueryParameters(); - var terms = (params.highlight) ? params.highlight[0].split(/\s+/) : []; - if (terms.length) { - var body = $('div.body'); - if (!body.length) { - body = $('body'); - } - window.setTimeout(function() { - $.each(terms, function() { - body.highlightText(this.toLowerCase(), 'highlighted'); - }); - }, 10); - $('') - .appendTo($('#searchbox')); - } - }, - - /** - * init the domain index toggle buttons - */ - initIndexTable : function() { - var togglers = $('img.toggler').click(function() { - var src = $(this).attr('src'); - var idnum = $(this).attr('id').substr(7); - $('tr.cg-' + idnum).toggle(); - if (src.substr(-9) === 'minus.png') - $(this).attr('src', src.substr(0, src.length-9) + 'plus.png'); - else - $(this).attr('src', src.substr(0, src.length-8) + 'minus.png'); - }).css('display', ''); - if (DOCUMENTATION_OPTIONS.COLLAPSE_INDEX) { - togglers.click(); - } - }, - - /** - * helper function to hide the search marks again - */ - hideSearchWords : function() { - $('#searchbox .highlight-link').fadeOut(300); - $('span.highlighted').removeClass('highlighted'); - var url = new URL(window.location); - url.searchParams.delete('highlight'); - window.history.replaceState({}, '', url); - }, - - /** - * helper function to focus on search bar - */ - focusSearchBar : function() { - $('input[name=q]').first().focus(); - }, - - /** - * make the url absolute - */ - makeURL : function(relativeURL) { - return DOCUMENTATION_OPTIONS.URL_ROOT + '/' + relativeURL; - }, - - /** - * get the current relative url - */ - getCurrentURL : function() { - var path = document.location.pathname; - var parts = path.split(/\//); - $.each(DOCUMENTATION_OPTIONS.URL_ROOT.split(/\//), function() { - if (this === '..') - parts.pop(); - }); - var url = parts.join('/'); - return path.substring(url.lastIndexOf('/') + 1, path.length - 1); - }, - - initOnKeyListeners: function() { - // only install a listener if it is really needed - if (!DOCUMENTATION_OPTIONS.NAVIGATION_WITH_KEYS && - !DOCUMENTATION_OPTIONS.ENABLE_SEARCH_SHORTCUTS) - return; - - $(document).keydown(function(event) { - var activeElementType = document.activeElement.tagName; - // don't navigate when in search box, textarea, dropdown or button - if (activeElementType !== 'TEXTAREA' && activeElementType !== 'INPUT' && activeElementType !== 'SELECT' - && activeElementType !== 'BUTTON') { - if (event.altKey || event.ctrlKey || event.metaKey) - return; - - if (!event.shiftKey) { - switch (event.key) { - case 'ArrowLeft': - if (!DOCUMENTATION_OPTIONS.NAVIGATION_WITH_KEYS) - break; - var prevHref = $('link[rel="prev"]').prop('href'); - if (prevHref) { - window.location.href = prevHref; - return false; - } - break; - case 'ArrowRight': - if (!DOCUMENTATION_OPTIONS.NAVIGATION_WITH_KEYS) - break; - var nextHref = $('link[rel="next"]').prop('href'); - if (nextHref) { - window.location.href = nextHref; - return false; - } - break; - case 'Escape': - if (!DOCUMENTATION_OPTIONS.ENABLE_SEARCH_SHORTCUTS) - break; - Documentation.hideSearchWords(); - return false; - } - } - - // some keyboard layouts may need Shift to get / - switch (event.key) { - case '/': - if (!DOCUMENTATION_OPTIONS.ENABLE_SEARCH_SHORTCUTS) - break; - Documentation.focusSearchBar(); - return false; - } - } - }); - } -}; - -// quick alias for translations -_ = Documentation.gettext; - -$(document).ready(function() { - Documentation.init(); -}); diff --git a/docs/_static/documentation_options.js b/docs/_static/documentation_options.js deleted file mode 100644 index 7b66312d3..000000000 --- a/docs/_static/documentation_options.js +++ /dev/null @@ -1,14 +0,0 @@ -var DOCUMENTATION_OPTIONS = { - URL_ROOT: document.getElementById("documentation_options").getAttribute('data-url_root'), - VERSION: '0.0.1', - LANGUAGE: 'zh', - COLLAPSE_INDEX: false, - BUILDER: 'html', - FILE_SUFFIX: '.html', - LINK_SUFFIX: '.html', - HAS_SOURCE: true, - SOURCELINK_SUFFIX: '.txt', - NAVIGATION_WITH_KEYS: true, - SHOW_SEARCH_SUMMARY: true, - ENABLE_SEARCH_SHORTCUTS: true, -}; \ No newline at end of file diff --git a/docs/_static/file.png b/docs/_static/file.png deleted file mode 100644 index a858a410e..000000000 Binary files a/docs/_static/file.png and /dev/null differ diff --git a/docs/_static/images/logo_binder.svg b/docs/_static/images/logo_binder.svg deleted file mode 100644 index 45fecf751..000000000 --- a/docs/_static/images/logo_binder.svg +++ /dev/null @@ -1,19 +0,0 @@ - - - - -logo - - - - - - - - diff --git a/docs/_static/images/logo_colab.png b/docs/_static/images/logo_colab.png deleted file mode 100644 index b7560ec21..000000000 Binary files a/docs/_static/images/logo_colab.png and /dev/null differ diff --git a/docs/_static/images/logo_deepnote.svg b/docs/_static/images/logo_deepnote.svg deleted file mode 100644 index fa77ebfc2..000000000 --- a/docs/_static/images/logo_deepnote.svg +++ /dev/null @@ -1 +0,0 @@ - diff --git a/docs/_static/images/logo_jupyterhub.svg b/docs/_static/images/logo_jupyterhub.svg deleted file mode 100644 index 60cfe9f22..000000000 --- a/docs/_static/images/logo_jupyterhub.svg +++ /dev/null @@ -1 +0,0 @@ -logo_jupyterhubHub diff --git a/docs/_static/jquery-3.5.1.js b/docs/_static/jquery-3.5.1.js deleted file mode 100644 index 50937333b..000000000 --- a/docs/_static/jquery-3.5.1.js +++ /dev/null @@ -1,10872 +0,0 @@ -/*! - * jQuery JavaScript Library v3.5.1 - * https://jquery.com/ - * - * Includes Sizzle.js - * https://sizzlejs.com/ - * - * Copyright JS Foundation and other contributors - * Released under the MIT license - * https://jquery.org/license - * - * Date: 2020-05-04T22:49Z - */ -( function( global, factory ) { - - "use strict"; - - if ( typeof module === "object" && typeof module.exports === "object" ) { - - // For CommonJS and CommonJS-like environments where a proper `window` - // is present, execute the factory and get jQuery. - // For environments that do not have a `window` with a `document` - // (such as Node.js), expose a factory as module.exports. - // This accentuates the need for the creation of a real `window`. - // e.g. var jQuery = require("jquery")(window); - // See ticket #14549 for more info. - module.exports = global.document ? - factory( global, true ) : - function( w ) { - if ( !w.document ) { - throw new Error( "jQuery requires a window with a document" ); - } - return factory( w ); - }; - } else { - factory( global ); - } - -// Pass this if window is not defined yet -} )( typeof window !== "undefined" ? window : this, function( window, noGlobal ) { - -// Edge <= 12 - 13+, Firefox <=18 - 45+, IE 10 - 11, Safari 5.1 - 9+, iOS 6 - 9.1 -// throw exceptions when non-strict code (e.g., ASP.NET 4.5) accesses strict mode -// arguments.callee.caller (trac-13335). But as of jQuery 3.0 (2016), strict mode should be common -// enough that all such attempts are guarded in a try block. -"use strict"; - -var arr = []; - -var getProto = Object.getPrototypeOf; - -var slice = arr.slice; - -var flat = arr.flat ? function( array ) { - return arr.flat.call( array ); -} : function( array ) { - return arr.concat.apply( [], array ); -}; - - -var push = arr.push; - -var indexOf = arr.indexOf; - -var class2type = {}; - -var toString = class2type.toString; - -var hasOwn = class2type.hasOwnProperty; - -var fnToString = hasOwn.toString; - -var ObjectFunctionString = fnToString.call( Object ); - -var support = {}; - -var isFunction = function isFunction( obj ) { - - // Support: Chrome <=57, Firefox <=52 - // In some browsers, typeof returns "function" for HTML elements - // (i.e., `typeof document.createElement( "object" ) === "function"`). - // We don't want to classify *any* DOM node as a function. - return typeof obj === "function" && typeof obj.nodeType !== "number"; - }; - - -var isWindow = function isWindow( obj ) { - return obj != null && obj === obj.window; - }; - - -var document = window.document; - - - - var preservedScriptAttributes = { - type: true, - src: true, - nonce: true, - noModule: true - }; - - function DOMEval( code, node, doc ) { - doc = doc || document; - - var i, val, - script = doc.createElement( "script" ); - - script.text = code; - if ( node ) { - for ( i in preservedScriptAttributes ) { - - // Support: Firefox 64+, Edge 18+ - // Some browsers don't support the "nonce" property on scripts. - // On the other hand, just using `getAttribute` is not enough as - // the `nonce` attribute is reset to an empty string whenever it - // becomes browsing-context connected. - // See https://github.com/whatwg/html/issues/2369 - // See https://html.spec.whatwg.org/#nonce-attributes - // The `node.getAttribute` check was added for the sake of - // `jQuery.globalEval` so that it can fake a nonce-containing node - // via an object. - val = node[ i ] || node.getAttribute && node.getAttribute( i ); - if ( val ) { - script.setAttribute( i, val ); - } - } - } - doc.head.appendChild( script ).parentNode.removeChild( script ); - } - - -function toType( obj ) { - if ( obj == null ) { - return obj + ""; - } - - // Support: Android <=2.3 only (functionish RegExp) - return typeof obj === "object" || typeof obj === "function" ? - class2type[ toString.call( obj ) ] || "object" : - typeof obj; -} -/* global Symbol */ -// Defining this global in .eslintrc.json would create a danger of using the global -// unguarded in another place, it seems safer to define global only for this module - - - -var - version = "3.5.1", - - // Define a local copy of jQuery - jQuery = function( selector, context ) { - - // The jQuery object is actually just the init constructor 'enhanced' - // Need init if jQuery is called (just allow error to be thrown if not included) - return new jQuery.fn.init( selector, context ); - }; - -jQuery.fn = jQuery.prototype = { - - // The current version of jQuery being used - jquery: version, - - constructor: jQuery, - - // The default length of a jQuery object is 0 - length: 0, - - toArray: function() { - return slice.call( this ); - }, - - // Get the Nth element in the matched element set OR - // Get the whole matched element set as a clean array - get: function( num ) { - - // Return all the elements in a clean array - if ( num == null ) { - return slice.call( this ); - } - - // Return just the one element from the set - return num < 0 ? this[ num + this.length ] : this[ num ]; - }, - - // Take an array of elements and push it onto the stack - // (returning the new matched element set) - pushStack: function( elems ) { - - // Build a new jQuery matched element set - var ret = jQuery.merge( this.constructor(), elems ); - - // Add the old object onto the stack (as a reference) - ret.prevObject = this; - - // Return the newly-formed element set - return ret; - }, - - // Execute a callback for every element in the matched set. - each: function( callback ) { - return jQuery.each( this, callback ); - }, - - map: function( callback ) { - return this.pushStack( jQuery.map( this, function( elem, i ) { - return callback.call( elem, i, elem ); - } ) ); - }, - - slice: function() { - return this.pushStack( slice.apply( this, arguments ) ); - }, - - first: function() { - return this.eq( 0 ); - }, - - last: function() { - return this.eq( -1 ); - }, - - even: function() { - return this.pushStack( jQuery.grep( this, function( _elem, i ) { - return ( i + 1 ) % 2; - } ) ); - }, - - odd: function() { - return this.pushStack( jQuery.grep( this, function( _elem, i ) { - return i % 2; - } ) ); - }, - - eq: function( i ) { - var len = this.length, - j = +i + ( i < 0 ? len : 0 ); - return this.pushStack( j >= 0 && j < len ? [ this[ j ] ] : [] ); - }, - - end: function() { - return this.prevObject || this.constructor(); - }, - - // For internal use only. - // Behaves like an Array's method, not like a jQuery method. - push: push, - sort: arr.sort, - splice: arr.splice -}; - -jQuery.extend = jQuery.fn.extend = function() { - var options, name, src, copy, copyIsArray, clone, - target = arguments[ 0 ] || {}, - i = 1, - length = arguments.length, - deep = false; - - // Handle a deep copy situation - if ( typeof target === "boolean" ) { - deep = target; - - // Skip the boolean and the target - target = arguments[ i ] || {}; - i++; - } - - // Handle case when target is a string or something (possible in deep copy) - if ( typeof target !== "object" && !isFunction( target ) ) { - target = {}; - } - - // Extend jQuery itself if only one argument is passed - if ( i === length ) { - target = this; - i--; - } - - for ( ; i < length; i++ ) { - - // Only deal with non-null/undefined values - if ( ( options = arguments[ i ] ) != null ) { - - // Extend the base object - for ( name in options ) { - copy = options[ name ]; - - // Prevent Object.prototype pollution - // Prevent never-ending loop - if ( name === "__proto__" || target === copy ) { - continue; - } - - // Recurse if we're merging plain objects or arrays - if ( deep && copy && ( jQuery.isPlainObject( copy ) || - ( copyIsArray = Array.isArray( copy ) ) ) ) { - src = target[ name ]; - - // Ensure proper type for the source value - if ( copyIsArray && !Array.isArray( src ) ) { - clone = []; - } else if ( !copyIsArray && !jQuery.isPlainObject( src ) ) { - clone = {}; - } else { - clone = src; - } - copyIsArray = false; - - // Never move original objects, clone them - target[ name ] = jQuery.extend( deep, clone, copy ); - - // Don't bring in undefined values - } else if ( copy !== undefined ) { - target[ name ] = copy; - } - } - } - } - - // Return the modified object - return target; -}; - -jQuery.extend( { - - // Unique for each copy of jQuery on the page - expando: "jQuery" + ( version + Math.random() ).replace( /\D/g, "" ), - - // Assume jQuery is ready without the ready module - isReady: true, - - error: function( msg ) { - throw new Error( msg ); - }, - - noop: function() {}, - - isPlainObject: function( obj ) { - var proto, Ctor; - - // Detect obvious negatives - // Use toString instead of jQuery.type to catch host objects - if ( !obj || toString.call( obj ) !== "[object Object]" ) { - return false; - } - - proto = getProto( obj ); - - // Objects with no prototype (e.g., `Object.create( null )`) are plain - if ( !proto ) { - return true; - } - - // Objects with prototype are plain iff they were constructed by a global Object function - Ctor = hasOwn.call( proto, "constructor" ) && proto.constructor; - return typeof Ctor === "function" && fnToString.call( Ctor ) === ObjectFunctionString; - }, - - isEmptyObject: function( obj ) { - var name; - - for ( name in obj ) { - return false; - } - return true; - }, - - // Evaluates a script in a provided context; falls back to the global one - // if not specified. - globalEval: function( code, options, doc ) { - DOMEval( code, { nonce: options && options.nonce }, doc ); - }, - - each: function( obj, callback ) { - var length, i = 0; - - if ( isArrayLike( obj ) ) { - length = obj.length; - for ( ; i < length; i++ ) { - if ( callback.call( obj[ i ], i, obj[ i ] ) === false ) { - break; - } - } - } else { - for ( i in obj ) { - if ( callback.call( obj[ i ], i, obj[ i ] ) === false ) { - break; - } - } - } - - return obj; - }, - - // results is for internal usage only - makeArray: function( arr, results ) { - var ret = results || []; - - if ( arr != null ) { - if ( isArrayLike( Object( arr ) ) ) { - jQuery.merge( ret, - typeof arr === "string" ? - [ arr ] : arr - ); - } else { - push.call( ret, arr ); - } - } - - return ret; - }, - - inArray: function( elem, arr, i ) { - return arr == null ? -1 : indexOf.call( arr, elem, i ); - }, - - // Support: Android <=4.0 only, PhantomJS 1 only - // push.apply(_, arraylike) throws on ancient WebKit - merge: function( first, second ) { - var len = +second.length, - j = 0, - i = first.length; - - for ( ; j < len; j++ ) { - first[ i++ ] = second[ j ]; - } - - first.length = i; - - return first; - }, - - grep: function( elems, callback, invert ) { - var callbackInverse, - matches = [], - i = 0, - length = elems.length, - callbackExpect = !invert; - - // Go through the array, only saving the items - // that pass the validator function - for ( ; i < length; i++ ) { - callbackInverse = !callback( elems[ i ], i ); - if ( callbackInverse !== callbackExpect ) { - matches.push( elems[ i ] ); - } - } - - return matches; - }, - - // arg is for internal usage only - map: function( elems, callback, arg ) { - var length, value, - i = 0, - ret = []; - - // Go through the array, translating each of the items to their new values - if ( isArrayLike( elems ) ) { - length = elems.length; - for ( ; i < length; i++ ) { - value = callback( elems[ i ], i, arg ); - - if ( value != null ) { - ret.push( value ); - } - } - - // Go through every key on the object, - } else { - for ( i in elems ) { - value = callback( elems[ i ], i, arg ); - - if ( value != null ) { - ret.push( value ); - } - } - } - - // Flatten any nested arrays - return flat( ret ); - }, - - // A global GUID counter for objects - guid: 1, - - // jQuery.support is not used in Core but other projects attach their - // properties to it so it needs to exist. - support: support -} ); - -if ( typeof Symbol === "function" ) { - jQuery.fn[ Symbol.iterator ] = arr[ Symbol.iterator ]; -} - -// Populate the class2type map -jQuery.each( "Boolean Number String Function Array Date RegExp Object Error Symbol".split( " " ), -function( _i, name ) { - class2type[ "[object " + name + "]" ] = name.toLowerCase(); -} ); - -function isArrayLike( obj ) { - - // Support: real iOS 8.2 only (not reproducible in simulator) - // `in` check used to prevent JIT error (gh-2145) - // hasOwn isn't used here due to false negatives - // regarding Nodelist length in IE - var length = !!obj && "length" in obj && obj.length, - type = toType( obj ); - - if ( isFunction( obj ) || isWindow( obj ) ) { - return false; - } - - return type === "array" || length === 0 || - typeof length === "number" && length > 0 && ( length - 1 ) in obj; -} -var Sizzle = -/*! - * Sizzle CSS Selector Engine v2.3.5 - * https://sizzlejs.com/ - * - * Copyright JS Foundation and other contributors - * Released under the MIT license - * https://js.foundation/ - * - * Date: 2020-03-14 - */ -( function( window ) { -var i, - support, - Expr, - getText, - isXML, - tokenize, - compile, - select, - outermostContext, - sortInput, - hasDuplicate, - - // Local document vars - setDocument, - document, - docElem, - documentIsHTML, - rbuggyQSA, - rbuggyMatches, - matches, - contains, - - // Instance-specific data - expando = "sizzle" + 1 * new Date(), - preferredDoc = window.document, - dirruns = 0, - done = 0, - classCache = createCache(), - tokenCache = createCache(), - compilerCache = createCache(), - nonnativeSelectorCache = createCache(), - sortOrder = function( a, b ) { - if ( a === b ) { - hasDuplicate = true; - } - return 0; - }, - - // Instance methods - hasOwn = ( {} ).hasOwnProperty, - arr = [], - pop = arr.pop, - pushNative = arr.push, - push = arr.push, - slice = arr.slice, - - // Use a stripped-down indexOf as it's faster than native - // https://jsperf.com/thor-indexof-vs-for/5 - indexOf = function( list, elem ) { - var i = 0, - len = list.length; - for ( ; i < len; i++ ) { - if ( list[ i ] === elem ) { - return i; - } - } - return -1; - }, - - booleans = "checked|selected|async|autofocus|autoplay|controls|defer|disabled|hidden|" + - "ismap|loop|multiple|open|readonly|required|scoped", - - // Regular expressions - - // http://www.w3.org/TR/css3-selectors/#whitespace - whitespace = "[\\x20\\t\\r\\n\\f]", - - // https://www.w3.org/TR/css-syntax-3/#ident-token-diagram - identifier = "(?:\\\\[\\da-fA-F]{1,6}" + whitespace + - "?|\\\\[^\\r\\n\\f]|[\\w-]|[^\0-\\x7f])+", - - // Attribute selectors: http://www.w3.org/TR/selectors/#attribute-selectors - attributes = "\\[" + whitespace + "*(" + identifier + ")(?:" + whitespace + - - // Operator (capture 2) - "*([*^$|!~]?=)" + whitespace + - - // "Attribute values must be CSS identifiers [capture 5] - // or strings [capture 3 or capture 4]" - "*(?:'((?:\\\\.|[^\\\\'])*)'|\"((?:\\\\.|[^\\\\\"])*)\"|(" + identifier + "))|)" + - whitespace + "*\\]", - - pseudos = ":(" + identifier + ")(?:\\((" + - - // To reduce the number of selectors needing tokenize in the preFilter, prefer arguments: - // 1. quoted (capture 3; capture 4 or capture 5) - "('((?:\\\\.|[^\\\\'])*)'|\"((?:\\\\.|[^\\\\\"])*)\")|" + - - // 2. simple (capture 6) - "((?:\\\\.|[^\\\\()[\\]]|" + attributes + ")*)|" + - - // 3. anything else (capture 2) - ".*" + - ")\\)|)", - - // Leading and non-escaped trailing whitespace, capturing some non-whitespace characters preceding the latter - rwhitespace = new RegExp( whitespace + "+", "g" ), - rtrim = new RegExp( "^" + whitespace + "+|((?:^|[^\\\\])(?:\\\\.)*)" + - whitespace + "+$", "g" ), - - rcomma = new RegExp( "^" + whitespace + "*," + whitespace + "*" ), - rcombinators = new RegExp( "^" + whitespace + "*([>+~]|" + whitespace + ")" + whitespace + - "*" ), - rdescend = new RegExp( whitespace + "|>" ), - - rpseudo = new RegExp( pseudos ), - ridentifier = new RegExp( "^" + identifier + "$" ), - - matchExpr = { - "ID": new RegExp( "^#(" + identifier + ")" ), - "CLASS": new RegExp( "^\\.(" + identifier + ")" ), - "TAG": new RegExp( "^(" + identifier + "|[*])" ), - "ATTR": new RegExp( "^" + attributes ), - "PSEUDO": new RegExp( "^" + pseudos ), - "CHILD": new RegExp( "^:(only|first|last|nth|nth-last)-(child|of-type)(?:\\(" + - whitespace + "*(even|odd|(([+-]|)(\\d*)n|)" + whitespace + "*(?:([+-]|)" + - whitespace + "*(\\d+)|))" + whitespace + "*\\)|)", "i" ), - "bool": new RegExp( "^(?:" + booleans + ")$", "i" ), - - // For use in libraries implementing .is() - // We use this for POS matching in `select` - "needsContext": new RegExp( "^" + whitespace + - "*[>+~]|:(even|odd|eq|gt|lt|nth|first|last)(?:\\(" + whitespace + - "*((?:-\\d)?\\d*)" + whitespace + "*\\)|)(?=[^-]|$)", "i" ) - }, - - rhtml = /HTML$/i, - rinputs = /^(?:input|select|textarea|button)$/i, - rheader = /^h\d$/i, - - rnative = /^[^{]+\{\s*\[native \w/, - - // Easily-parseable/retrievable ID or TAG or CLASS selectors - rquickExpr = /^(?:#([\w-]+)|(\w+)|\.([\w-]+))$/, - - rsibling = /[+~]/, - - // CSS escapes - // http://www.w3.org/TR/CSS21/syndata.html#escaped-characters - runescape = new RegExp( "\\\\[\\da-fA-F]{1,6}" + whitespace + "?|\\\\([^\\r\\n\\f])", "g" ), - funescape = function( escape, nonHex ) { - var high = "0x" + escape.slice( 1 ) - 0x10000; - - return nonHex ? - - // Strip the backslash prefix from a non-hex escape sequence - nonHex : - - // Replace a hexadecimal escape sequence with the encoded Unicode code point - // Support: IE <=11+ - // For values outside the Basic Multilingual Plane (BMP), manually construct a - // surrogate pair - high < 0 ? - String.fromCharCode( high + 0x10000 ) : - String.fromCharCode( high >> 10 | 0xD800, high & 0x3FF | 0xDC00 ); - }, - - // CSS string/identifier serialization - // https://drafts.csswg.org/cssom/#common-serializing-idioms - rcssescape = /([\0-\x1f\x7f]|^-?\d)|^-$|[^\0-\x1f\x7f-\uFFFF\w-]/g, - fcssescape = function( ch, asCodePoint ) { - if ( asCodePoint ) { - - // U+0000 NULL becomes U+FFFD REPLACEMENT CHARACTER - if ( ch === "\0" ) { - return "\uFFFD"; - } - - // Control characters and (dependent upon position) numbers get escaped as code points - return ch.slice( 0, -1 ) + "\\" + - ch.charCodeAt( ch.length - 1 ).toString( 16 ) + " "; - } - - // Other potentially-special ASCII characters get backslash-escaped - return "\\" + ch; - }, - - // Used for iframes - // See setDocument() - // Removing the function wrapper causes a "Permission Denied" - // error in IE - unloadHandler = function() { - setDocument(); - }, - - inDisabledFieldset = addCombinator( - function( elem ) { - return elem.disabled === true && elem.nodeName.toLowerCase() === "fieldset"; - }, - { dir: "parentNode", next: "legend" } - ); - -// Optimize for push.apply( _, NodeList ) -try { - push.apply( - ( arr = slice.call( preferredDoc.childNodes ) ), - preferredDoc.childNodes - ); - - // Support: Android<4.0 - // Detect silently failing push.apply - // eslint-disable-next-line no-unused-expressions - arr[ preferredDoc.childNodes.length ].nodeType; -} catch ( e ) { - push = { apply: arr.length ? - - // Leverage slice if possible - function( target, els ) { - pushNative.apply( target, slice.call( els ) ); - } : - - // Support: IE<9 - // Otherwise append directly - function( target, els ) { - var j = target.length, - i = 0; - - // Can't trust NodeList.length - while ( ( target[ j++ ] = els[ i++ ] ) ) {} - target.length = j - 1; - } - }; -} - -function Sizzle( selector, context, results, seed ) { - var m, i, elem, nid, match, groups, newSelector, - newContext = context && context.ownerDocument, - - // nodeType defaults to 9, since context defaults to document - nodeType = context ? context.nodeType : 9; - - results = results || []; - - // Return early from calls with invalid selector or context - if ( typeof selector !== "string" || !selector || - nodeType !== 1 && nodeType !== 9 && nodeType !== 11 ) { - - return results; - } - - // Try to shortcut find operations (as opposed to filters) in HTML documents - if ( !seed ) { - setDocument( context ); - context = context || document; - - if ( documentIsHTML ) { - - // If the selector is sufficiently simple, try using a "get*By*" DOM method - // (excepting DocumentFragment context, where the methods don't exist) - if ( nodeType !== 11 && ( match = rquickExpr.exec( selector ) ) ) { - - // ID selector - if ( ( m = match[ 1 ] ) ) { - - // Document context - if ( nodeType === 9 ) { - if ( ( elem = context.getElementById( m ) ) ) { - - // Support: IE, Opera, Webkit - // TODO: identify versions - // getElementById can match elements by name instead of ID - if ( elem.id === m ) { - results.push( elem ); - return results; - } - } else { - return results; - } - - // Element context - } else { - - // Support: IE, Opera, Webkit - // TODO: identify versions - // getElementById can match elements by name instead of ID - if ( newContext && ( elem = newContext.getElementById( m ) ) && - contains( context, elem ) && - elem.id === m ) { - - results.push( elem ); - return results; - } - } - - // Type selector - } else if ( match[ 2 ] ) { - push.apply( results, context.getElementsByTagName( selector ) ); - return results; - - // Class selector - } else if ( ( m = match[ 3 ] ) && support.getElementsByClassName && - context.getElementsByClassName ) { - - push.apply( results, context.getElementsByClassName( m ) ); - return results; - } - } - - // Take advantage of querySelectorAll - if ( support.qsa && - !nonnativeSelectorCache[ selector + " " ] && - ( !rbuggyQSA || !rbuggyQSA.test( selector ) ) && - - // Support: IE 8 only - // Exclude object elements - ( nodeType !== 1 || context.nodeName.toLowerCase() !== "object" ) ) { - - newSelector = selector; - newContext = context; - - // qSA considers elements outside a scoping root when evaluating child or - // descendant combinators, which is not what we want. - // In such cases, we work around the behavior by prefixing every selector in the - // list with an ID selector referencing the scope context. - // The technique has to be used as well when a leading combinator is used - // as such selectors are not recognized by querySelectorAll. - // Thanks to Andrew Dupont for this technique. - if ( nodeType === 1 && - ( rdescend.test( selector ) || rcombinators.test( selector ) ) ) { - - // Expand context for sibling selectors - newContext = rsibling.test( selector ) && testContext( context.parentNode ) || - context; - - // We can use :scope instead of the ID hack if the browser - // supports it & if we're not changing the context. - if ( newContext !== context || !support.scope ) { - - // Capture the context ID, setting it first if necessary - if ( ( nid = context.getAttribute( "id" ) ) ) { - nid = nid.replace( rcssescape, fcssescape ); - } else { - context.setAttribute( "id", ( nid = expando ) ); - } - } - - // Prefix every selector in the list - groups = tokenize( selector ); - i = groups.length; - while ( i-- ) { - groups[ i ] = ( nid ? "#" + nid : ":scope" ) + " " + - toSelector( groups[ i ] ); - } - newSelector = groups.join( "," ); - } - - try { - push.apply( results, - newContext.querySelectorAll( newSelector ) - ); - return results; - } catch ( qsaError ) { - nonnativeSelectorCache( selector, true ); - } finally { - if ( nid === expando ) { - context.removeAttribute( "id" ); - } - } - } - } - } - - // All others - return select( selector.replace( rtrim, "$1" ), context, results, seed ); -} - -/** - * Create key-value caches of limited size - * @returns {function(string, object)} Returns the Object data after storing it on itself with - * property name the (space-suffixed) string and (if the cache is larger than Expr.cacheLength) - * deleting the oldest entry - */ -function createCache() { - var keys = []; - - function cache( key, value ) { - - // Use (key + " ") to avoid collision with native prototype properties (see Issue #157) - if ( keys.push( key + " " ) > Expr.cacheLength ) { - - // Only keep the most recent entries - delete cache[ keys.shift() ]; - } - return ( cache[ key + " " ] = value ); - } - return cache; -} - -/** - * Mark a function for special use by Sizzle - * @param {Function} fn The function to mark - */ -function markFunction( fn ) { - fn[ expando ] = true; - return fn; -} - -/** - * Support testing using an element - * @param {Function} fn Passed the created element and returns a boolean result - */ -function assert( fn ) { - var el = document.createElement( "fieldset" ); - - try { - return !!fn( el ); - } catch ( e ) { - return false; - } finally { - - // Remove from its parent by default - if ( el.parentNode ) { - el.parentNode.removeChild( el ); - } - - // release memory in IE - el = null; - } -} - -/** - * Adds the same handler for all of the specified attrs - * @param {String} attrs Pipe-separated list of attributes - * @param {Function} handler The method that will be applied - */ -function addHandle( attrs, handler ) { - var arr = attrs.split( "|" ), - i = arr.length; - - while ( i-- ) { - Expr.attrHandle[ arr[ i ] ] = handler; - } -} - -/** - * Checks document order of two siblings - * @param {Element} a - * @param {Element} b - * @returns {Number} Returns less than 0 if a precedes b, greater than 0 if a follows b - */ -function siblingCheck( a, b ) { - var cur = b && a, - diff = cur && a.nodeType === 1 && b.nodeType === 1 && - a.sourceIndex - b.sourceIndex; - - // Use IE sourceIndex if available on both nodes - if ( diff ) { - return diff; - } - - // Check if b follows a - if ( cur ) { - while ( ( cur = cur.nextSibling ) ) { - if ( cur === b ) { - return -1; - } - } - } - - return a ? 1 : -1; -} - -/** - * Returns a function to use in pseudos for input types - * @param {String} type - */ -function createInputPseudo( type ) { - return function( elem ) { - var name = elem.nodeName.toLowerCase(); - return name === "input" && elem.type === type; - }; -} - -/** - * Returns a function to use in pseudos for buttons - * @param {String} type - */ -function createButtonPseudo( type ) { - return function( elem ) { - var name = elem.nodeName.toLowerCase(); - return ( name === "input" || name === "button" ) && elem.type === type; - }; -} - -/** - * Returns a function to use in pseudos for :enabled/:disabled - * @param {Boolean} disabled true for :disabled; false for :enabled - */ -function createDisabledPseudo( disabled ) { - - // Known :disabled false positives: fieldset[disabled] > legend:nth-of-type(n+2) :can-disable - return function( elem ) { - - // Only certain elements can match :enabled or :disabled - // https://html.spec.whatwg.org/multipage/scripting.html#selector-enabled - // https://html.spec.whatwg.org/multipage/scripting.html#selector-disabled - if ( "form" in elem ) { - - // Check for inherited disabledness on relevant non-disabled elements: - // * listed form-associated elements in a disabled fieldset - // https://html.spec.whatwg.org/multipage/forms.html#category-listed - // https://html.spec.whatwg.org/multipage/forms.html#concept-fe-disabled - // * option elements in a disabled optgroup - // https://html.spec.whatwg.org/multipage/forms.html#concept-option-disabled - // All such elements have a "form" property. - if ( elem.parentNode && elem.disabled === false ) { - - // Option elements defer to a parent optgroup if present - if ( "label" in elem ) { - if ( "label" in elem.parentNode ) { - return elem.parentNode.disabled === disabled; - } else { - return elem.disabled === disabled; - } - } - - // Support: IE 6 - 11 - // Use the isDisabled shortcut property to check for disabled fieldset ancestors - return elem.isDisabled === disabled || - - // Where there is no isDisabled, check manually - /* jshint -W018 */ - elem.isDisabled !== !disabled && - inDisabledFieldset( elem ) === disabled; - } - - return elem.disabled === disabled; - - // Try to winnow out elements that can't be disabled before trusting the disabled property. - // Some victims get caught in our net (label, legend, menu, track), but it shouldn't - // even exist on them, let alone have a boolean value. - } else if ( "label" in elem ) { - return elem.disabled === disabled; - } - - // Remaining elements are neither :enabled nor :disabled - return false; - }; -} - -/** - * Returns a function to use in pseudos for positionals - * @param {Function} fn - */ -function createPositionalPseudo( fn ) { - return markFunction( function( argument ) { - argument = +argument; - return markFunction( function( seed, matches ) { - var j, - matchIndexes = fn( [], seed.length, argument ), - i = matchIndexes.length; - - // Match elements found at the specified indexes - while ( i-- ) { - if ( seed[ ( j = matchIndexes[ i ] ) ] ) { - seed[ j ] = !( matches[ j ] = seed[ j ] ); - } - } - } ); - } ); -} - -/** - * Checks a node for validity as a Sizzle context - * @param {Element|Object=} context - * @returns {Element|Object|Boolean} The input node if acceptable, otherwise a falsy value - */ -function testContext( context ) { - return context && typeof context.getElementsByTagName !== "undefined" && context; -} - -// Expose support vars for convenience -support = Sizzle.support = {}; - -/** - * Detects XML nodes - * @param {Element|Object} elem An element or a document - * @returns {Boolean} True iff elem is a non-HTML XML node - */ -isXML = Sizzle.isXML = function( elem ) { - var namespace = elem.namespaceURI, - docElem = ( elem.ownerDocument || elem ).documentElement; - - // Support: IE <=8 - // Assume HTML when documentElement doesn't yet exist, such as inside loading iframes - // https://bugs.jquery.com/ticket/4833 - return !rhtml.test( namespace || docElem && docElem.nodeName || "HTML" ); -}; - -/** - * Sets document-related variables once based on the current document - * @param {Element|Object} [doc] An element or document object to use to set the document - * @returns {Object} Returns the current document - */ -setDocument = Sizzle.setDocument = function( node ) { - var hasCompare, subWindow, - doc = node ? node.ownerDocument || node : preferredDoc; - - // Return early if doc is invalid or already selected - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - // eslint-disable-next-line eqeqeq - if ( doc == document || doc.nodeType !== 9 || !doc.documentElement ) { - return document; - } - - // Update global variables - document = doc; - docElem = document.documentElement; - documentIsHTML = !isXML( document ); - - // Support: IE 9 - 11+, Edge 12 - 18+ - // Accessing iframe documents after unload throws "permission denied" errors (jQuery #13936) - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - // eslint-disable-next-line eqeqeq - if ( preferredDoc != document && - ( subWindow = document.defaultView ) && subWindow.top !== subWindow ) { - - // Support: IE 11, Edge - if ( subWindow.addEventListener ) { - subWindow.addEventListener( "unload", unloadHandler, false ); - - // Support: IE 9 - 10 only - } else if ( subWindow.attachEvent ) { - subWindow.attachEvent( "onunload", unloadHandler ); - } - } - - // Support: IE 8 - 11+, Edge 12 - 18+, Chrome <=16 - 25 only, Firefox <=3.6 - 31 only, - // Safari 4 - 5 only, Opera <=11.6 - 12.x only - // IE/Edge & older browsers don't support the :scope pseudo-class. - // Support: Safari 6.0 only - // Safari 6.0 supports :scope but it's an alias of :root there. - support.scope = assert( function( el ) { - docElem.appendChild( el ).appendChild( document.createElement( "div" ) ); - return typeof el.querySelectorAll !== "undefined" && - !el.querySelectorAll( ":scope fieldset div" ).length; - } ); - - /* Attributes - ---------------------------------------------------------------------- */ - - // Support: IE<8 - // Verify that getAttribute really returns attributes and not properties - // (excepting IE8 booleans) - support.attributes = assert( function( el ) { - el.className = "i"; - return !el.getAttribute( "className" ); - } ); - - /* getElement(s)By* - ---------------------------------------------------------------------- */ - - // Check if getElementsByTagName("*") returns only elements - support.getElementsByTagName = assert( function( el ) { - el.appendChild( document.createComment( "" ) ); - return !el.getElementsByTagName( "*" ).length; - } ); - - // Support: IE<9 - support.getElementsByClassName = rnative.test( document.getElementsByClassName ); - - // Support: IE<10 - // Check if getElementById returns elements by name - // The broken getElementById methods don't pick up programmatically-set names, - // so use a roundabout getElementsByName test - support.getById = assert( function( el ) { - docElem.appendChild( el ).id = expando; - return !document.getElementsByName || !document.getElementsByName( expando ).length; - } ); - - // ID filter and find - if ( support.getById ) { - Expr.filter[ "ID" ] = function( id ) { - var attrId = id.replace( runescape, funescape ); - return function( elem ) { - return elem.getAttribute( "id" ) === attrId; - }; - }; - Expr.find[ "ID" ] = function( id, context ) { - if ( typeof context.getElementById !== "undefined" && documentIsHTML ) { - var elem = context.getElementById( id ); - return elem ? [ elem ] : []; - } - }; - } else { - Expr.filter[ "ID" ] = function( id ) { - var attrId = id.replace( runescape, funescape ); - return function( elem ) { - var node = typeof elem.getAttributeNode !== "undefined" && - elem.getAttributeNode( "id" ); - return node && node.value === attrId; - }; - }; - - // Support: IE 6 - 7 only - // getElementById is not reliable as a find shortcut - Expr.find[ "ID" ] = function( id, context ) { - if ( typeof context.getElementById !== "undefined" && documentIsHTML ) { - var node, i, elems, - elem = context.getElementById( id ); - - if ( elem ) { - - // Verify the id attribute - node = elem.getAttributeNode( "id" ); - if ( node && node.value === id ) { - return [ elem ]; - } - - // Fall back on getElementsByName - elems = context.getElementsByName( id ); - i = 0; - while ( ( elem = elems[ i++ ] ) ) { - node = elem.getAttributeNode( "id" ); - if ( node && node.value === id ) { - return [ elem ]; - } - } - } - - return []; - } - }; - } - - // Tag - Expr.find[ "TAG" ] = support.getElementsByTagName ? - function( tag, context ) { - if ( typeof context.getElementsByTagName !== "undefined" ) { - return context.getElementsByTagName( tag ); - - // DocumentFragment nodes don't have gEBTN - } else if ( support.qsa ) { - return context.querySelectorAll( tag ); - } - } : - - function( tag, context ) { - var elem, - tmp = [], - i = 0, - - // By happy coincidence, a (broken) gEBTN appears on DocumentFragment nodes too - results = context.getElementsByTagName( tag ); - - // Filter out possible comments - if ( tag === "*" ) { - while ( ( elem = results[ i++ ] ) ) { - if ( elem.nodeType === 1 ) { - tmp.push( elem ); - } - } - - return tmp; - } - return results; - }; - - // Class - Expr.find[ "CLASS" ] = support.getElementsByClassName && function( className, context ) { - if ( typeof context.getElementsByClassName !== "undefined" && documentIsHTML ) { - return context.getElementsByClassName( className ); - } - }; - - /* QSA/matchesSelector - ---------------------------------------------------------------------- */ - - // QSA and matchesSelector support - - // matchesSelector(:active) reports false when true (IE9/Opera 11.5) - rbuggyMatches = []; - - // qSa(:focus) reports false when true (Chrome 21) - // We allow this because of a bug in IE8/9 that throws an error - // whenever `document.activeElement` is accessed on an iframe - // So, we allow :focus to pass through QSA all the time to avoid the IE error - // See https://bugs.jquery.com/ticket/13378 - rbuggyQSA = []; - - if ( ( support.qsa = rnative.test( document.querySelectorAll ) ) ) { - - // Build QSA regex - // Regex strategy adopted from Diego Perini - assert( function( el ) { - - var input; - - // Select is set to empty string on purpose - // This is to test IE's treatment of not explicitly - // setting a boolean content attribute, - // since its presence should be enough - // https://bugs.jquery.com/ticket/12359 - docElem.appendChild( el ).innerHTML = "" + - ""; - - // Support: IE8, Opera 11-12.16 - // Nothing should be selected when empty strings follow ^= or $= or *= - // The test attribute must be unknown in Opera but "safe" for WinRT - // https://msdn.microsoft.com/en-us/library/ie/hh465388.aspx#attribute_section - if ( el.querySelectorAll( "[msallowcapture^='']" ).length ) { - rbuggyQSA.push( "[*^$]=" + whitespace + "*(?:''|\"\")" ); - } - - // Support: IE8 - // Boolean attributes and "value" are not treated correctly - if ( !el.querySelectorAll( "[selected]" ).length ) { - rbuggyQSA.push( "\\[" + whitespace + "*(?:value|" + booleans + ")" ); - } - - // Support: Chrome<29, Android<4.4, Safari<7.0+, iOS<7.0+, PhantomJS<1.9.8+ - if ( !el.querySelectorAll( "[id~=" + expando + "-]" ).length ) { - rbuggyQSA.push( "~=" ); - } - - // Support: IE 11+, Edge 15 - 18+ - // IE 11/Edge don't find elements on a `[name='']` query in some cases. - // Adding a temporary attribute to the document before the selection works - // around the issue. - // Interestingly, IE 10 & older don't seem to have the issue. - input = document.createElement( "input" ); - input.setAttribute( "name", "" ); - el.appendChild( input ); - if ( !el.querySelectorAll( "[name='']" ).length ) { - rbuggyQSA.push( "\\[" + whitespace + "*name" + whitespace + "*=" + - whitespace + "*(?:''|\"\")" ); - } - - // Webkit/Opera - :checked should return selected option elements - // http://www.w3.org/TR/2011/REC-css3-selectors-20110929/#checked - // IE8 throws error here and will not see later tests - if ( !el.querySelectorAll( ":checked" ).length ) { - rbuggyQSA.push( ":checked" ); - } - - // Support: Safari 8+, iOS 8+ - // https://bugs.webkit.org/show_bug.cgi?id=136851 - // In-page `selector#id sibling-combinator selector` fails - if ( !el.querySelectorAll( "a#" + expando + "+*" ).length ) { - rbuggyQSA.push( ".#.+[+~]" ); - } - - // Support: Firefox <=3.6 - 5 only - // Old Firefox doesn't throw on a badly-escaped identifier. - el.querySelectorAll( "\\\f" ); - rbuggyQSA.push( "[\\r\\n\\f]" ); - } ); - - assert( function( el ) { - el.innerHTML = "" + - ""; - - // Support: Windows 8 Native Apps - // The type and name attributes are restricted during .innerHTML assignment - var input = document.createElement( "input" ); - input.setAttribute( "type", "hidden" ); - el.appendChild( input ).setAttribute( "name", "D" ); - - // Support: IE8 - // Enforce case-sensitivity of name attribute - if ( el.querySelectorAll( "[name=d]" ).length ) { - rbuggyQSA.push( "name" + whitespace + "*[*^$|!~]?=" ); - } - - // FF 3.5 - :enabled/:disabled and hidden elements (hidden elements are still enabled) - // IE8 throws error here and will not see later tests - if ( el.querySelectorAll( ":enabled" ).length !== 2 ) { - rbuggyQSA.push( ":enabled", ":disabled" ); - } - - // Support: IE9-11+ - // IE's :disabled selector does not pick up the children of disabled fieldsets - docElem.appendChild( el ).disabled = true; - if ( el.querySelectorAll( ":disabled" ).length !== 2 ) { - rbuggyQSA.push( ":enabled", ":disabled" ); - } - - // Support: Opera 10 - 11 only - // Opera 10-11 does not throw on post-comma invalid pseudos - el.querySelectorAll( "*,:x" ); - rbuggyQSA.push( ",.*:" ); - } ); - } - - if ( ( support.matchesSelector = rnative.test( ( matches = docElem.matches || - docElem.webkitMatchesSelector || - docElem.mozMatchesSelector || - docElem.oMatchesSelector || - docElem.msMatchesSelector ) ) ) ) { - - assert( function( el ) { - - // Check to see if it's possible to do matchesSelector - // on a disconnected node (IE 9) - support.disconnectedMatch = matches.call( el, "*" ); - - // This should fail with an exception - // Gecko does not error, returns false instead - matches.call( el, "[s!='']:x" ); - rbuggyMatches.push( "!=", pseudos ); - } ); - } - - rbuggyQSA = rbuggyQSA.length && new RegExp( rbuggyQSA.join( "|" ) ); - rbuggyMatches = rbuggyMatches.length && new RegExp( rbuggyMatches.join( "|" ) ); - - /* Contains - ---------------------------------------------------------------------- */ - hasCompare = rnative.test( docElem.compareDocumentPosition ); - - // Element contains another - // Purposefully self-exclusive - // As in, an element does not contain itself - contains = hasCompare || rnative.test( docElem.contains ) ? - function( a, b ) { - var adown = a.nodeType === 9 ? a.documentElement : a, - bup = b && b.parentNode; - return a === bup || !!( bup && bup.nodeType === 1 && ( - adown.contains ? - adown.contains( bup ) : - a.compareDocumentPosition && a.compareDocumentPosition( bup ) & 16 - ) ); - } : - function( a, b ) { - if ( b ) { - while ( ( b = b.parentNode ) ) { - if ( b === a ) { - return true; - } - } - } - return false; - }; - - /* Sorting - ---------------------------------------------------------------------- */ - - // Document order sorting - sortOrder = hasCompare ? - function( a, b ) { - - // Flag for duplicate removal - if ( a === b ) { - hasDuplicate = true; - return 0; - } - - // Sort on method existence if only one input has compareDocumentPosition - var compare = !a.compareDocumentPosition - !b.compareDocumentPosition; - if ( compare ) { - return compare; - } - - // Calculate position if both inputs belong to the same document - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - // eslint-disable-next-line eqeqeq - compare = ( a.ownerDocument || a ) == ( b.ownerDocument || b ) ? - a.compareDocumentPosition( b ) : - - // Otherwise we know they are disconnected - 1; - - // Disconnected nodes - if ( compare & 1 || - ( !support.sortDetached && b.compareDocumentPosition( a ) === compare ) ) { - - // Choose the first element that is related to our preferred document - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - // eslint-disable-next-line eqeqeq - if ( a == document || a.ownerDocument == preferredDoc && - contains( preferredDoc, a ) ) { - return -1; - } - - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - // eslint-disable-next-line eqeqeq - if ( b == document || b.ownerDocument == preferredDoc && - contains( preferredDoc, b ) ) { - return 1; - } - - // Maintain original order - return sortInput ? - ( indexOf( sortInput, a ) - indexOf( sortInput, b ) ) : - 0; - } - - return compare & 4 ? -1 : 1; - } : - function( a, b ) { - - // Exit early if the nodes are identical - if ( a === b ) { - hasDuplicate = true; - return 0; - } - - var cur, - i = 0, - aup = a.parentNode, - bup = b.parentNode, - ap = [ a ], - bp = [ b ]; - - // Parentless nodes are either documents or disconnected - if ( !aup || !bup ) { - - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - /* eslint-disable eqeqeq */ - return a == document ? -1 : - b == document ? 1 : - /* eslint-enable eqeqeq */ - aup ? -1 : - bup ? 1 : - sortInput ? - ( indexOf( sortInput, a ) - indexOf( sortInput, b ) ) : - 0; - - // If the nodes are siblings, we can do a quick check - } else if ( aup === bup ) { - return siblingCheck( a, b ); - } - - // Otherwise we need full lists of their ancestors for comparison - cur = a; - while ( ( cur = cur.parentNode ) ) { - ap.unshift( cur ); - } - cur = b; - while ( ( cur = cur.parentNode ) ) { - bp.unshift( cur ); - } - - // Walk down the tree looking for a discrepancy - while ( ap[ i ] === bp[ i ] ) { - i++; - } - - return i ? - - // Do a sibling check if the nodes have a common ancestor - siblingCheck( ap[ i ], bp[ i ] ) : - - // Otherwise nodes in our document sort first - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - /* eslint-disable eqeqeq */ - ap[ i ] == preferredDoc ? -1 : - bp[ i ] == preferredDoc ? 1 : - /* eslint-enable eqeqeq */ - 0; - }; - - return document; -}; - -Sizzle.matches = function( expr, elements ) { - return Sizzle( expr, null, null, elements ); -}; - -Sizzle.matchesSelector = function( elem, expr ) { - setDocument( elem ); - - if ( support.matchesSelector && documentIsHTML && - !nonnativeSelectorCache[ expr + " " ] && - ( !rbuggyMatches || !rbuggyMatches.test( expr ) ) && - ( !rbuggyQSA || !rbuggyQSA.test( expr ) ) ) { - - try { - var ret = matches.call( elem, expr ); - - // IE 9's matchesSelector returns false on disconnected nodes - if ( ret || support.disconnectedMatch || - - // As well, disconnected nodes are said to be in a document - // fragment in IE 9 - elem.document && elem.document.nodeType !== 11 ) { - return ret; - } - } catch ( e ) { - nonnativeSelectorCache( expr, true ); - } - } - - return Sizzle( expr, document, null, [ elem ] ).length > 0; -}; - -Sizzle.contains = function( context, elem ) { - - // Set document vars if needed - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - // eslint-disable-next-line eqeqeq - if ( ( context.ownerDocument || context ) != document ) { - setDocument( context ); - } - return contains( context, elem ); -}; - -Sizzle.attr = function( elem, name ) { - - // Set document vars if needed - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - // eslint-disable-next-line eqeqeq - if ( ( elem.ownerDocument || elem ) != document ) { - setDocument( elem ); - } - - var fn = Expr.attrHandle[ name.toLowerCase() ], - - // Don't get fooled by Object.prototype properties (jQuery #13807) - val = fn && hasOwn.call( Expr.attrHandle, name.toLowerCase() ) ? - fn( elem, name, !documentIsHTML ) : - undefined; - - return val !== undefined ? - val : - support.attributes || !documentIsHTML ? - elem.getAttribute( name ) : - ( val = elem.getAttributeNode( name ) ) && val.specified ? - val.value : - null; -}; - -Sizzle.escape = function( sel ) { - return ( sel + "" ).replace( rcssescape, fcssescape ); -}; - -Sizzle.error = function( msg ) { - throw new Error( "Syntax error, unrecognized expression: " + msg ); -}; - -/** - * Document sorting and removing duplicates - * @param {ArrayLike} results - */ -Sizzle.uniqueSort = function( results ) { - var elem, - duplicates = [], - j = 0, - i = 0; - - // Unless we *know* we can detect duplicates, assume their presence - hasDuplicate = !support.detectDuplicates; - sortInput = !support.sortStable && results.slice( 0 ); - results.sort( sortOrder ); - - if ( hasDuplicate ) { - while ( ( elem = results[ i++ ] ) ) { - if ( elem === results[ i ] ) { - j = duplicates.push( i ); - } - } - while ( j-- ) { - results.splice( duplicates[ j ], 1 ); - } - } - - // Clear input after sorting to release objects - // See https://github.com/jquery/sizzle/pull/225 - sortInput = null; - - return results; -}; - -/** - * Utility function for retrieving the text value of an array of DOM nodes - * @param {Array|Element} elem - */ -getText = Sizzle.getText = function( elem ) { - var node, - ret = "", - i = 0, - nodeType = elem.nodeType; - - if ( !nodeType ) { - - // If no nodeType, this is expected to be an array - while ( ( node = elem[ i++ ] ) ) { - - // Do not traverse comment nodes - ret += getText( node ); - } - } else if ( nodeType === 1 || nodeType === 9 || nodeType === 11 ) { - - // Use textContent for elements - // innerText usage removed for consistency of new lines (jQuery #11153) - if ( typeof elem.textContent === "string" ) { - return elem.textContent; - } else { - - // Traverse its children - for ( elem = elem.firstChild; elem; elem = elem.nextSibling ) { - ret += getText( elem ); - } - } - } else if ( nodeType === 3 || nodeType === 4 ) { - return elem.nodeValue; - } - - // Do not include comment or processing instruction nodes - - return ret; -}; - -Expr = Sizzle.selectors = { - - // Can be adjusted by the user - cacheLength: 50, - - createPseudo: markFunction, - - match: matchExpr, - - attrHandle: {}, - - find: {}, - - relative: { - ">": { dir: "parentNode", first: true }, - " ": { dir: "parentNode" }, - "+": { dir: "previousSibling", first: true }, - "~": { dir: "previousSibling" } - }, - - preFilter: { - "ATTR": function( match ) { - match[ 1 ] = match[ 1 ].replace( runescape, funescape ); - - // Move the given value to match[3] whether quoted or unquoted - match[ 3 ] = ( match[ 3 ] || match[ 4 ] || - match[ 5 ] || "" ).replace( runescape, funescape ); - - if ( match[ 2 ] === "~=" ) { - match[ 3 ] = " " + match[ 3 ] + " "; - } - - return match.slice( 0, 4 ); - }, - - "CHILD": function( match ) { - - /* matches from matchExpr["CHILD"] - 1 type (only|nth|...) - 2 what (child|of-type) - 3 argument (even|odd|\d*|\d*n([+-]\d+)?|...) - 4 xn-component of xn+y argument ([+-]?\d*n|) - 5 sign of xn-component - 6 x of xn-component - 7 sign of y-component - 8 y of y-component - */ - match[ 1 ] = match[ 1 ].toLowerCase(); - - if ( match[ 1 ].slice( 0, 3 ) === "nth" ) { - - // nth-* requires argument - if ( !match[ 3 ] ) { - Sizzle.error( match[ 0 ] ); - } - - // numeric x and y parameters for Expr.filter.CHILD - // remember that false/true cast respectively to 0/1 - match[ 4 ] = +( match[ 4 ] ? - match[ 5 ] + ( match[ 6 ] || 1 ) : - 2 * ( match[ 3 ] === "even" || match[ 3 ] === "odd" ) ); - match[ 5 ] = +( ( match[ 7 ] + match[ 8 ] ) || match[ 3 ] === "odd" ); - - // other types prohibit arguments - } else if ( match[ 3 ] ) { - Sizzle.error( match[ 0 ] ); - } - - return match; - }, - - "PSEUDO": function( match ) { - var excess, - unquoted = !match[ 6 ] && match[ 2 ]; - - if ( matchExpr[ "CHILD" ].test( match[ 0 ] ) ) { - return null; - } - - // Accept quoted arguments as-is - if ( match[ 3 ] ) { - match[ 2 ] = match[ 4 ] || match[ 5 ] || ""; - - // Strip excess characters from unquoted arguments - } else if ( unquoted && rpseudo.test( unquoted ) && - - // Get excess from tokenize (recursively) - ( excess = tokenize( unquoted, true ) ) && - - // advance to the next closing parenthesis - ( excess = unquoted.indexOf( ")", unquoted.length - excess ) - unquoted.length ) ) { - - // excess is a negative index - match[ 0 ] = match[ 0 ].slice( 0, excess ); - match[ 2 ] = unquoted.slice( 0, excess ); - } - - // Return only captures needed by the pseudo filter method (type and argument) - return match.slice( 0, 3 ); - } - }, - - filter: { - - "TAG": function( nodeNameSelector ) { - var nodeName = nodeNameSelector.replace( runescape, funescape ).toLowerCase(); - return nodeNameSelector === "*" ? - function() { - return true; - } : - function( elem ) { - return elem.nodeName && elem.nodeName.toLowerCase() === nodeName; - }; - }, - - "CLASS": function( className ) { - var pattern = classCache[ className + " " ]; - - return pattern || - ( pattern = new RegExp( "(^|" + whitespace + - ")" + className + "(" + whitespace + "|$)" ) ) && classCache( - className, function( elem ) { - return pattern.test( - typeof elem.className === "string" && elem.className || - typeof elem.getAttribute !== "undefined" && - elem.getAttribute( "class" ) || - "" - ); - } ); - }, - - "ATTR": function( name, operator, check ) { - return function( elem ) { - var result = Sizzle.attr( elem, name ); - - if ( result == null ) { - return operator === "!="; - } - if ( !operator ) { - return true; - } - - result += ""; - - /* eslint-disable max-len */ - - return operator === "=" ? result === check : - operator === "!=" ? result !== check : - operator === "^=" ? check && result.indexOf( check ) === 0 : - operator === "*=" ? check && result.indexOf( check ) > -1 : - operator === "$=" ? check && result.slice( -check.length ) === check : - operator === "~=" ? ( " " + result.replace( rwhitespace, " " ) + " " ).indexOf( check ) > -1 : - operator === "|=" ? result === check || result.slice( 0, check.length + 1 ) === check + "-" : - false; - /* eslint-enable max-len */ - - }; - }, - - "CHILD": function( type, what, _argument, first, last ) { - var simple = type.slice( 0, 3 ) !== "nth", - forward = type.slice( -4 ) !== "last", - ofType = what === "of-type"; - - return first === 1 && last === 0 ? - - // Shortcut for :nth-*(n) - function( elem ) { - return !!elem.parentNode; - } : - - function( elem, _context, xml ) { - var cache, uniqueCache, outerCache, node, nodeIndex, start, - dir = simple !== forward ? "nextSibling" : "previousSibling", - parent = elem.parentNode, - name = ofType && elem.nodeName.toLowerCase(), - useCache = !xml && !ofType, - diff = false; - - if ( parent ) { - - // :(first|last|only)-(child|of-type) - if ( simple ) { - while ( dir ) { - node = elem; - while ( ( node = node[ dir ] ) ) { - if ( ofType ? - node.nodeName.toLowerCase() === name : - node.nodeType === 1 ) { - - return false; - } - } - - // Reverse direction for :only-* (if we haven't yet done so) - start = dir = type === "only" && !start && "nextSibling"; - } - return true; - } - - start = [ forward ? parent.firstChild : parent.lastChild ]; - - // non-xml :nth-child(...) stores cache data on `parent` - if ( forward && useCache ) { - - // Seek `elem` from a previously-cached index - - // ...in a gzip-friendly way - node = parent; - outerCache = node[ expando ] || ( node[ expando ] = {} ); - - // Support: IE <9 only - // Defend against cloned attroperties (jQuery gh-1709) - uniqueCache = outerCache[ node.uniqueID ] || - ( outerCache[ node.uniqueID ] = {} ); - - cache = uniqueCache[ type ] || []; - nodeIndex = cache[ 0 ] === dirruns && cache[ 1 ]; - diff = nodeIndex && cache[ 2 ]; - node = nodeIndex && parent.childNodes[ nodeIndex ]; - - while ( ( node = ++nodeIndex && node && node[ dir ] || - - // Fallback to seeking `elem` from the start - ( diff = nodeIndex = 0 ) || start.pop() ) ) { - - // When found, cache indexes on `parent` and break - if ( node.nodeType === 1 && ++diff && node === elem ) { - uniqueCache[ type ] = [ dirruns, nodeIndex, diff ]; - break; - } - } - - } else { - - // Use previously-cached element index if available - if ( useCache ) { - - // ...in a gzip-friendly way - node = elem; - outerCache = node[ expando ] || ( node[ expando ] = {} ); - - // Support: IE <9 only - // Defend against cloned attroperties (jQuery gh-1709) - uniqueCache = outerCache[ node.uniqueID ] || - ( outerCache[ node.uniqueID ] = {} ); - - cache = uniqueCache[ type ] || []; - nodeIndex = cache[ 0 ] === dirruns && cache[ 1 ]; - diff = nodeIndex; - } - - // xml :nth-child(...) - // or :nth-last-child(...) or :nth(-last)?-of-type(...) - if ( diff === false ) { - - // Use the same loop as above to seek `elem` from the start - while ( ( node = ++nodeIndex && node && node[ dir ] || - ( diff = nodeIndex = 0 ) || start.pop() ) ) { - - if ( ( ofType ? - node.nodeName.toLowerCase() === name : - node.nodeType === 1 ) && - ++diff ) { - - // Cache the index of each encountered element - if ( useCache ) { - outerCache = node[ expando ] || - ( node[ expando ] = {} ); - - // Support: IE <9 only - // Defend against cloned attroperties (jQuery gh-1709) - uniqueCache = outerCache[ node.uniqueID ] || - ( outerCache[ node.uniqueID ] = {} ); - - uniqueCache[ type ] = [ dirruns, diff ]; - } - - if ( node === elem ) { - break; - } - } - } - } - } - - // Incorporate the offset, then check against cycle size - diff -= last; - return diff === first || ( diff % first === 0 && diff / first >= 0 ); - } - }; - }, - - "PSEUDO": function( pseudo, argument ) { - - // pseudo-class names are case-insensitive - // http://www.w3.org/TR/selectors/#pseudo-classes - // Prioritize by case sensitivity in case custom pseudos are added with uppercase letters - // Remember that setFilters inherits from pseudos - var args, - fn = Expr.pseudos[ pseudo ] || Expr.setFilters[ pseudo.toLowerCase() ] || - Sizzle.error( "unsupported pseudo: " + pseudo ); - - // The user may use createPseudo to indicate that - // arguments are needed to create the filter function - // just as Sizzle does - if ( fn[ expando ] ) { - return fn( argument ); - } - - // But maintain support for old signatures - if ( fn.length > 1 ) { - args = [ pseudo, pseudo, "", argument ]; - return Expr.setFilters.hasOwnProperty( pseudo.toLowerCase() ) ? - markFunction( function( seed, matches ) { - var idx, - matched = fn( seed, argument ), - i = matched.length; - while ( i-- ) { - idx = indexOf( seed, matched[ i ] ); - seed[ idx ] = !( matches[ idx ] = matched[ i ] ); - } - } ) : - function( elem ) { - return fn( elem, 0, args ); - }; - } - - return fn; - } - }, - - pseudos: { - - // Potentially complex pseudos - "not": markFunction( function( selector ) { - - // Trim the selector passed to compile - // to avoid treating leading and trailing - // spaces as combinators - var input = [], - results = [], - matcher = compile( selector.replace( rtrim, "$1" ) ); - - return matcher[ expando ] ? - markFunction( function( seed, matches, _context, xml ) { - var elem, - unmatched = matcher( seed, null, xml, [] ), - i = seed.length; - - // Match elements unmatched by `matcher` - while ( i-- ) { - if ( ( elem = unmatched[ i ] ) ) { - seed[ i ] = !( matches[ i ] = elem ); - } - } - } ) : - function( elem, _context, xml ) { - input[ 0 ] = elem; - matcher( input, null, xml, results ); - - // Don't keep the element (issue #299) - input[ 0 ] = null; - return !results.pop(); - }; - } ), - - "has": markFunction( function( selector ) { - return function( elem ) { - return Sizzle( selector, elem ).length > 0; - }; - } ), - - "contains": markFunction( function( text ) { - text = text.replace( runescape, funescape ); - return function( elem ) { - return ( elem.textContent || getText( elem ) ).indexOf( text ) > -1; - }; - } ), - - // "Whether an element is represented by a :lang() selector - // is based solely on the element's language value - // being equal to the identifier C, - // or beginning with the identifier C immediately followed by "-". - // The matching of C against the element's language value is performed case-insensitively. - // The identifier C does not have to be a valid language name." - // http://www.w3.org/TR/selectors/#lang-pseudo - "lang": markFunction( function( lang ) { - - // lang value must be a valid identifier - if ( !ridentifier.test( lang || "" ) ) { - Sizzle.error( "unsupported lang: " + lang ); - } - lang = lang.replace( runescape, funescape ).toLowerCase(); - return function( elem ) { - var elemLang; - do { - if ( ( elemLang = documentIsHTML ? - elem.lang : - elem.getAttribute( "xml:lang" ) || elem.getAttribute( "lang" ) ) ) { - - elemLang = elemLang.toLowerCase(); - return elemLang === lang || elemLang.indexOf( lang + "-" ) === 0; - } - } while ( ( elem = elem.parentNode ) && elem.nodeType === 1 ); - return false; - }; - } ), - - // Miscellaneous - "target": function( elem ) { - var hash = window.location && window.location.hash; - return hash && hash.slice( 1 ) === elem.id; - }, - - "root": function( elem ) { - return elem === docElem; - }, - - "focus": function( elem ) { - return elem === document.activeElement && - ( !document.hasFocus || document.hasFocus() ) && - !!( elem.type || elem.href || ~elem.tabIndex ); - }, - - // Boolean properties - "enabled": createDisabledPseudo( false ), - "disabled": createDisabledPseudo( true ), - - "checked": function( elem ) { - - // In CSS3, :checked should return both checked and selected elements - // http://www.w3.org/TR/2011/REC-css3-selectors-20110929/#checked - var nodeName = elem.nodeName.toLowerCase(); - return ( nodeName === "input" && !!elem.checked ) || - ( nodeName === "option" && !!elem.selected ); - }, - - "selected": function( elem ) { - - // Accessing this property makes selected-by-default - // options in Safari work properly - if ( elem.parentNode ) { - // eslint-disable-next-line no-unused-expressions - elem.parentNode.selectedIndex; - } - - return elem.selected === true; - }, - - // Contents - "empty": function( elem ) { - - // http://www.w3.org/TR/selectors/#empty-pseudo - // :empty is negated by element (1) or content nodes (text: 3; cdata: 4; entity ref: 5), - // but not by others (comment: 8; processing instruction: 7; etc.) - // nodeType < 6 works because attributes (2) do not appear as children - for ( elem = elem.firstChild; elem; elem = elem.nextSibling ) { - if ( elem.nodeType < 6 ) { - return false; - } - } - return true; - }, - - "parent": function( elem ) { - return !Expr.pseudos[ "empty" ]( elem ); - }, - - // Element/input types - "header": function( elem ) { - return rheader.test( elem.nodeName ); - }, - - "input": function( elem ) { - return rinputs.test( elem.nodeName ); - }, - - "button": function( elem ) { - var name = elem.nodeName.toLowerCase(); - return name === "input" && elem.type === "button" || name === "button"; - }, - - "text": function( elem ) { - var attr; - return elem.nodeName.toLowerCase() === "input" && - elem.type === "text" && - - // Support: IE<8 - // New HTML5 attribute values (e.g., "search") appear with elem.type === "text" - ( ( attr = elem.getAttribute( "type" ) ) == null || - attr.toLowerCase() === "text" ); - }, - - // Position-in-collection - "first": createPositionalPseudo( function() { - return [ 0 ]; - } ), - - "last": createPositionalPseudo( function( _matchIndexes, length ) { - return [ length - 1 ]; - } ), - - "eq": createPositionalPseudo( function( _matchIndexes, length, argument ) { - return [ argument < 0 ? argument + length : argument ]; - } ), - - "even": createPositionalPseudo( function( matchIndexes, length ) { - var i = 0; - for ( ; i < length; i += 2 ) { - matchIndexes.push( i ); - } - return matchIndexes; - } ), - - "odd": createPositionalPseudo( function( matchIndexes, length ) { - var i = 1; - for ( ; i < length; i += 2 ) { - matchIndexes.push( i ); - } - return matchIndexes; - } ), - - "lt": createPositionalPseudo( function( matchIndexes, length, argument ) { - var i = argument < 0 ? - argument + length : - argument > length ? - length : - argument; - for ( ; --i >= 0; ) { - matchIndexes.push( i ); - } - return matchIndexes; - } ), - - "gt": createPositionalPseudo( function( matchIndexes, length, argument ) { - var i = argument < 0 ? argument + length : argument; - for ( ; ++i < length; ) { - matchIndexes.push( i ); - } - return matchIndexes; - } ) - } -}; - -Expr.pseudos[ "nth" ] = Expr.pseudos[ "eq" ]; - -// Add button/input type pseudos -for ( i in { radio: true, checkbox: true, file: true, password: true, image: true } ) { - Expr.pseudos[ i ] = createInputPseudo( i ); -} -for ( i in { submit: true, reset: true } ) { - Expr.pseudos[ i ] = createButtonPseudo( i ); -} - -// Easy API for creating new setFilters -function setFilters() {} -setFilters.prototype = Expr.filters = Expr.pseudos; -Expr.setFilters = new setFilters(); - -tokenize = Sizzle.tokenize = function( selector, parseOnly ) { - var matched, match, tokens, type, - soFar, groups, preFilters, - cached = tokenCache[ selector + " " ]; - - if ( cached ) { - return parseOnly ? 0 : cached.slice( 0 ); - } - - soFar = selector; - groups = []; - preFilters = Expr.preFilter; - - while ( soFar ) { - - // Comma and first run - if ( !matched || ( match = rcomma.exec( soFar ) ) ) { - if ( match ) { - - // Don't consume trailing commas as valid - soFar = soFar.slice( match[ 0 ].length ) || soFar; - } - groups.push( ( tokens = [] ) ); - } - - matched = false; - - // Combinators - if ( ( match = rcombinators.exec( soFar ) ) ) { - matched = match.shift(); - tokens.push( { - value: matched, - - // Cast descendant combinators to space - type: match[ 0 ].replace( rtrim, " " ) - } ); - soFar = soFar.slice( matched.length ); - } - - // Filters - for ( type in Expr.filter ) { - if ( ( match = matchExpr[ type ].exec( soFar ) ) && ( !preFilters[ type ] || - ( match = preFilters[ type ]( match ) ) ) ) { - matched = match.shift(); - tokens.push( { - value: matched, - type: type, - matches: match - } ); - soFar = soFar.slice( matched.length ); - } - } - - if ( !matched ) { - break; - } - } - - // Return the length of the invalid excess - // if we're just parsing - // Otherwise, throw an error or return tokens - return parseOnly ? - soFar.length : - soFar ? - Sizzle.error( selector ) : - - // Cache the tokens - tokenCache( selector, groups ).slice( 0 ); -}; - -function toSelector( tokens ) { - var i = 0, - len = tokens.length, - selector = ""; - for ( ; i < len; i++ ) { - selector += tokens[ i ].value; - } - return selector; -} - -function addCombinator( matcher, combinator, base ) { - var dir = combinator.dir, - skip = combinator.next, - key = skip || dir, - checkNonElements = base && key === "parentNode", - doneName = done++; - - return combinator.first ? - - // Check against closest ancestor/preceding element - function( elem, context, xml ) { - while ( ( elem = elem[ dir ] ) ) { - if ( elem.nodeType === 1 || checkNonElements ) { - return matcher( elem, context, xml ); - } - } - return false; - } : - - // Check against all ancestor/preceding elements - function( elem, context, xml ) { - var oldCache, uniqueCache, outerCache, - newCache = [ dirruns, doneName ]; - - // We can't set arbitrary data on XML nodes, so they don't benefit from combinator caching - if ( xml ) { - while ( ( elem = elem[ dir ] ) ) { - if ( elem.nodeType === 1 || checkNonElements ) { - if ( matcher( elem, context, xml ) ) { - return true; - } - } - } - } else { - while ( ( elem = elem[ dir ] ) ) { - if ( elem.nodeType === 1 || checkNonElements ) { - outerCache = elem[ expando ] || ( elem[ expando ] = {} ); - - // Support: IE <9 only - // Defend against cloned attroperties (jQuery gh-1709) - uniqueCache = outerCache[ elem.uniqueID ] || - ( outerCache[ elem.uniqueID ] = {} ); - - if ( skip && skip === elem.nodeName.toLowerCase() ) { - elem = elem[ dir ] || elem; - } else if ( ( oldCache = uniqueCache[ key ] ) && - oldCache[ 0 ] === dirruns && oldCache[ 1 ] === doneName ) { - - // Assign to newCache so results back-propagate to previous elements - return ( newCache[ 2 ] = oldCache[ 2 ] ); - } else { - - // Reuse newcache so results back-propagate to previous elements - uniqueCache[ key ] = newCache; - - // A match means we're done; a fail means we have to keep checking - if ( ( newCache[ 2 ] = matcher( elem, context, xml ) ) ) { - return true; - } - } - } - } - } - return false; - }; -} - -function elementMatcher( matchers ) { - return matchers.length > 1 ? - function( elem, context, xml ) { - var i = matchers.length; - while ( i-- ) { - if ( !matchers[ i ]( elem, context, xml ) ) { - return false; - } - } - return true; - } : - matchers[ 0 ]; -} - -function multipleContexts( selector, contexts, results ) { - var i = 0, - len = contexts.length; - for ( ; i < len; i++ ) { - Sizzle( selector, contexts[ i ], results ); - } - return results; -} - -function condense( unmatched, map, filter, context, xml ) { - var elem, - newUnmatched = [], - i = 0, - len = unmatched.length, - mapped = map != null; - - for ( ; i < len; i++ ) { - if ( ( elem = unmatched[ i ] ) ) { - if ( !filter || filter( elem, context, xml ) ) { - newUnmatched.push( elem ); - if ( mapped ) { - map.push( i ); - } - } - } - } - - return newUnmatched; -} - -function setMatcher( preFilter, selector, matcher, postFilter, postFinder, postSelector ) { - if ( postFilter && !postFilter[ expando ] ) { - postFilter = setMatcher( postFilter ); - } - if ( postFinder && !postFinder[ expando ] ) { - postFinder = setMatcher( postFinder, postSelector ); - } - return markFunction( function( seed, results, context, xml ) { - var temp, i, elem, - preMap = [], - postMap = [], - preexisting = results.length, - - // Get initial elements from seed or context - elems = seed || multipleContexts( - selector || "*", - context.nodeType ? [ context ] : context, - [] - ), - - // Prefilter to get matcher input, preserving a map for seed-results synchronization - matcherIn = preFilter && ( seed || !selector ) ? - condense( elems, preMap, preFilter, context, xml ) : - elems, - - matcherOut = matcher ? - - // If we have a postFinder, or filtered seed, or non-seed postFilter or preexisting results, - postFinder || ( seed ? preFilter : preexisting || postFilter ) ? - - // ...intermediate processing is necessary - [] : - - // ...otherwise use results directly - results : - matcherIn; - - // Find primary matches - if ( matcher ) { - matcher( matcherIn, matcherOut, context, xml ); - } - - // Apply postFilter - if ( postFilter ) { - temp = condense( matcherOut, postMap ); - postFilter( temp, [], context, xml ); - - // Un-match failing elements by moving them back to matcherIn - i = temp.length; - while ( i-- ) { - if ( ( elem = temp[ i ] ) ) { - matcherOut[ postMap[ i ] ] = !( matcherIn[ postMap[ i ] ] = elem ); - } - } - } - - if ( seed ) { - if ( postFinder || preFilter ) { - if ( postFinder ) { - - // Get the final matcherOut by condensing this intermediate into postFinder contexts - temp = []; - i = matcherOut.length; - while ( i-- ) { - if ( ( elem = matcherOut[ i ] ) ) { - - // Restore matcherIn since elem is not yet a final match - temp.push( ( matcherIn[ i ] = elem ) ); - } - } - postFinder( null, ( matcherOut = [] ), temp, xml ); - } - - // Move matched elements from seed to results to keep them synchronized - i = matcherOut.length; - while ( i-- ) { - if ( ( elem = matcherOut[ i ] ) && - ( temp = postFinder ? indexOf( seed, elem ) : preMap[ i ] ) > -1 ) { - - seed[ temp ] = !( results[ temp ] = elem ); - } - } - } - - // Add elements to results, through postFinder if defined - } else { - matcherOut = condense( - matcherOut === results ? - matcherOut.splice( preexisting, matcherOut.length ) : - matcherOut - ); - if ( postFinder ) { - postFinder( null, results, matcherOut, xml ); - } else { - push.apply( results, matcherOut ); - } - } - } ); -} - -function matcherFromTokens( tokens ) { - var checkContext, matcher, j, - len = tokens.length, - leadingRelative = Expr.relative[ tokens[ 0 ].type ], - implicitRelative = leadingRelative || Expr.relative[ " " ], - i = leadingRelative ? 1 : 0, - - // The foundational matcher ensures that elements are reachable from top-level context(s) - matchContext = addCombinator( function( elem ) { - return elem === checkContext; - }, implicitRelative, true ), - matchAnyContext = addCombinator( function( elem ) { - return indexOf( checkContext, elem ) > -1; - }, implicitRelative, true ), - matchers = [ function( elem, context, xml ) { - var ret = ( !leadingRelative && ( xml || context !== outermostContext ) ) || ( - ( checkContext = context ).nodeType ? - matchContext( elem, context, xml ) : - matchAnyContext( elem, context, xml ) ); - - // Avoid hanging onto element (issue #299) - checkContext = null; - return ret; - } ]; - - for ( ; i < len; i++ ) { - if ( ( matcher = Expr.relative[ tokens[ i ].type ] ) ) { - matchers = [ addCombinator( elementMatcher( matchers ), matcher ) ]; - } else { - matcher = Expr.filter[ tokens[ i ].type ].apply( null, tokens[ i ].matches ); - - // Return special upon seeing a positional matcher - if ( matcher[ expando ] ) { - - // Find the next relative operator (if any) for proper handling - j = ++i; - for ( ; j < len; j++ ) { - if ( Expr.relative[ tokens[ j ].type ] ) { - break; - } - } - return setMatcher( - i > 1 && elementMatcher( matchers ), - i > 1 && toSelector( - - // If the preceding token was a descendant combinator, insert an implicit any-element `*` - tokens - .slice( 0, i - 1 ) - .concat( { value: tokens[ i - 2 ].type === " " ? "*" : "" } ) - ).replace( rtrim, "$1" ), - matcher, - i < j && matcherFromTokens( tokens.slice( i, j ) ), - j < len && matcherFromTokens( ( tokens = tokens.slice( j ) ) ), - j < len && toSelector( tokens ) - ); - } - matchers.push( matcher ); - } - } - - return elementMatcher( matchers ); -} - -function matcherFromGroupMatchers( elementMatchers, setMatchers ) { - var bySet = setMatchers.length > 0, - byElement = elementMatchers.length > 0, - superMatcher = function( seed, context, xml, results, outermost ) { - var elem, j, matcher, - matchedCount = 0, - i = "0", - unmatched = seed && [], - setMatched = [], - contextBackup = outermostContext, - - // We must always have either seed elements or outermost context - elems = seed || byElement && Expr.find[ "TAG" ]( "*", outermost ), - - // Use integer dirruns iff this is the outermost matcher - dirrunsUnique = ( dirruns += contextBackup == null ? 1 : Math.random() || 0.1 ), - len = elems.length; - - if ( outermost ) { - - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - // eslint-disable-next-line eqeqeq - outermostContext = context == document || context || outermost; - } - - // Add elements passing elementMatchers directly to results - // Support: IE<9, Safari - // Tolerate NodeList properties (IE: "length"; Safari: ) matching elements by id - for ( ; i !== len && ( elem = elems[ i ] ) != null; i++ ) { - if ( byElement && elem ) { - j = 0; - - // Support: IE 11+, Edge 17 - 18+ - // IE/Edge sometimes throw a "Permission denied" error when strict-comparing - // two documents; shallow comparisons work. - // eslint-disable-next-line eqeqeq - if ( !context && elem.ownerDocument != document ) { - setDocument( elem ); - xml = !documentIsHTML; - } - while ( ( matcher = elementMatchers[ j++ ] ) ) { - if ( matcher( elem, context || document, xml ) ) { - results.push( elem ); - break; - } - } - if ( outermost ) { - dirruns = dirrunsUnique; - } - } - - // Track unmatched elements for set filters - if ( bySet ) { - - // They will have gone through all possible matchers - if ( ( elem = !matcher && elem ) ) { - matchedCount--; - } - - // Lengthen the array for every element, matched or not - if ( seed ) { - unmatched.push( elem ); - } - } - } - - // `i` is now the count of elements visited above, and adding it to `matchedCount` - // makes the latter nonnegative. - matchedCount += i; - - // Apply set filters to unmatched elements - // NOTE: This can be skipped if there are no unmatched elements (i.e., `matchedCount` - // equals `i`), unless we didn't visit _any_ elements in the above loop because we have - // no element matchers and no seed. - // Incrementing an initially-string "0" `i` allows `i` to remain a string only in that - // case, which will result in a "00" `matchedCount` that differs from `i` but is also - // numerically zero. - if ( bySet && i !== matchedCount ) { - j = 0; - while ( ( matcher = setMatchers[ j++ ] ) ) { - matcher( unmatched, setMatched, context, xml ); - } - - if ( seed ) { - - // Reintegrate element matches to eliminate the need for sorting - if ( matchedCount > 0 ) { - while ( i-- ) { - if ( !( unmatched[ i ] || setMatched[ i ] ) ) { - setMatched[ i ] = pop.call( results ); - } - } - } - - // Discard index placeholder values to get only actual matches - setMatched = condense( setMatched ); - } - - // Add matches to results - push.apply( results, setMatched ); - - // Seedless set matches succeeding multiple successful matchers stipulate sorting - if ( outermost && !seed && setMatched.length > 0 && - ( matchedCount + setMatchers.length ) > 1 ) { - - Sizzle.uniqueSort( results ); - } - } - - // Override manipulation of globals by nested matchers - if ( outermost ) { - dirruns = dirrunsUnique; - outermostContext = contextBackup; - } - - return unmatched; - }; - - return bySet ? - markFunction( superMatcher ) : - superMatcher; -} - -compile = Sizzle.compile = function( selector, match /* Internal Use Only */ ) { - var i, - setMatchers = [], - elementMatchers = [], - cached = compilerCache[ selector + " " ]; - - if ( !cached ) { - - // Generate a function of recursive functions that can be used to check each element - if ( !match ) { - match = tokenize( selector ); - } - i = match.length; - while ( i-- ) { - cached = matcherFromTokens( match[ i ] ); - if ( cached[ expando ] ) { - setMatchers.push( cached ); - } else { - elementMatchers.push( cached ); - } - } - - // Cache the compiled function - cached = compilerCache( - selector, - matcherFromGroupMatchers( elementMatchers, setMatchers ) - ); - - // Save selector and tokenization - cached.selector = selector; - } - return cached; -}; - -/** - * A low-level selection function that works with Sizzle's compiled - * selector functions - * @param {String|Function} selector A selector or a pre-compiled - * selector function built with Sizzle.compile - * @param {Element} context - * @param {Array} [results] - * @param {Array} [seed] A set of elements to match against - */ -select = Sizzle.select = function( selector, context, results, seed ) { - var i, tokens, token, type, find, - compiled = typeof selector === "function" && selector, - match = !seed && tokenize( ( selector = compiled.selector || selector ) ); - - results = results || []; - - // Try to minimize operations if there is only one selector in the list and no seed - // (the latter of which guarantees us context) - if ( match.length === 1 ) { - - // Reduce context if the leading compound selector is an ID - tokens = match[ 0 ] = match[ 0 ].slice( 0 ); - if ( tokens.length > 2 && ( token = tokens[ 0 ] ).type === "ID" && - context.nodeType === 9 && documentIsHTML && Expr.relative[ tokens[ 1 ].type ] ) { - - context = ( Expr.find[ "ID" ]( token.matches[ 0 ] - .replace( runescape, funescape ), context ) || [] )[ 0 ]; - if ( !context ) { - return results; - - // Precompiled matchers will still verify ancestry, so step up a level - } else if ( compiled ) { - context = context.parentNode; - } - - selector = selector.slice( tokens.shift().value.length ); - } - - // Fetch a seed set for right-to-left matching - i = matchExpr[ "needsContext" ].test( selector ) ? 0 : tokens.length; - while ( i-- ) { - token = tokens[ i ]; - - // Abort if we hit a combinator - if ( Expr.relative[ ( type = token.type ) ] ) { - break; - } - if ( ( find = Expr.find[ type ] ) ) { - - // Search, expanding context for leading sibling combinators - if ( ( seed = find( - token.matches[ 0 ].replace( runescape, funescape ), - rsibling.test( tokens[ 0 ].type ) && testContext( context.parentNode ) || - context - ) ) ) { - - // If seed is empty or no tokens remain, we can return early - tokens.splice( i, 1 ); - selector = seed.length && toSelector( tokens ); - if ( !selector ) { - push.apply( results, seed ); - return results; - } - - break; - } - } - } - } - - // Compile and execute a filtering function if one is not provided - // Provide `match` to avoid retokenization if we modified the selector above - ( compiled || compile( selector, match ) )( - seed, - context, - !documentIsHTML, - results, - !context || rsibling.test( selector ) && testContext( context.parentNode ) || context - ); - return results; -}; - -// One-time assignments - -// Sort stability -support.sortStable = expando.split( "" ).sort( sortOrder ).join( "" ) === expando; - -// Support: Chrome 14-35+ -// Always assume duplicates if they aren't passed to the comparison function -support.detectDuplicates = !!hasDuplicate; - -// Initialize against the default document -setDocument(); - -// Support: Webkit<537.32 - Safari 6.0.3/Chrome 25 (fixed in Chrome 27) -// Detached nodes confoundingly follow *each other* -support.sortDetached = assert( function( el ) { - - // Should return 1, but returns 4 (following) - return el.compareDocumentPosition( document.createElement( "fieldset" ) ) & 1; -} ); - -// Support: IE<8 -// Prevent attribute/property "interpolation" -// https://msdn.microsoft.com/en-us/library/ms536429%28VS.85%29.aspx -if ( !assert( function( el ) { - el.innerHTML = ""; - return el.firstChild.getAttribute( "href" ) === "#"; -} ) ) { - addHandle( "type|href|height|width", function( elem, name, isXML ) { - if ( !isXML ) { - return elem.getAttribute( name, name.toLowerCase() === "type" ? 1 : 2 ); - } - } ); -} - -// Support: IE<9 -// Use defaultValue in place of getAttribute("value") -if ( !support.attributes || !assert( function( el ) { - el.innerHTML = ""; - el.firstChild.setAttribute( "value", "" ); - return el.firstChild.getAttribute( "value" ) === ""; -} ) ) { - addHandle( "value", function( elem, _name, isXML ) { - if ( !isXML && elem.nodeName.toLowerCase() === "input" ) { - return elem.defaultValue; - } - } ); -} - -// Support: IE<9 -// Use getAttributeNode to fetch booleans when getAttribute lies -if ( !assert( function( el ) { - return el.getAttribute( "disabled" ) == null; -} ) ) { - addHandle( booleans, function( elem, name, isXML ) { - var val; - if ( !isXML ) { - return elem[ name ] === true ? name.toLowerCase() : - ( val = elem.getAttributeNode( name ) ) && val.specified ? - val.value : - null; - } - } ); -} - -return Sizzle; - -} )( window ); - - - -jQuery.find = Sizzle; -jQuery.expr = Sizzle.selectors; - -// Deprecated -jQuery.expr[ ":" ] = jQuery.expr.pseudos; -jQuery.uniqueSort = jQuery.unique = Sizzle.uniqueSort; -jQuery.text = Sizzle.getText; -jQuery.isXMLDoc = Sizzle.isXML; -jQuery.contains = Sizzle.contains; -jQuery.escapeSelector = Sizzle.escape; - - - - -var dir = function( elem, dir, until ) { - var matched = [], - truncate = until !== undefined; - - while ( ( elem = elem[ dir ] ) && elem.nodeType !== 9 ) { - if ( elem.nodeType === 1 ) { - if ( truncate && jQuery( elem ).is( until ) ) { - break; - } - matched.push( elem ); - } - } - return matched; -}; - - -var siblings = function( n, elem ) { - var matched = []; - - for ( ; n; n = n.nextSibling ) { - if ( n.nodeType === 1 && n !== elem ) { - matched.push( n ); - } - } - - return matched; -}; - - -var rneedsContext = jQuery.expr.match.needsContext; - - - -function nodeName( elem, name ) { - - return elem.nodeName && elem.nodeName.toLowerCase() === name.toLowerCase(); - -}; -var rsingleTag = ( /^<([a-z][^\/\0>:\x20\t\r\n\f]*)[\x20\t\r\n\f]*\/?>(?:<\/\1>|)$/i ); - - - -// Implement the identical functionality for filter and not -function winnow( elements, qualifier, not ) { - if ( isFunction( qualifier ) ) { - return jQuery.grep( elements, function( elem, i ) { - return !!qualifier.call( elem, i, elem ) !== not; - } ); - } - - // Single element - if ( qualifier.nodeType ) { - return jQuery.grep( elements, function( elem ) { - return ( elem === qualifier ) !== not; - } ); - } - - // Arraylike of elements (jQuery, arguments, Array) - if ( typeof qualifier !== "string" ) { - return jQuery.grep( elements, function( elem ) { - return ( indexOf.call( qualifier, elem ) > -1 ) !== not; - } ); - } - - // Filtered directly for both simple and complex selectors - return jQuery.filter( qualifier, elements, not ); -} - -jQuery.filter = function( expr, elems, not ) { - var elem = elems[ 0 ]; - - if ( not ) { - expr = ":not(" + expr + ")"; - } - - if ( elems.length === 1 && elem.nodeType === 1 ) { - return jQuery.find.matchesSelector( elem, expr ) ? [ elem ] : []; - } - - return jQuery.find.matches( expr, jQuery.grep( elems, function( elem ) { - return elem.nodeType === 1; - } ) ); -}; - -jQuery.fn.extend( { - find: function( selector ) { - var i, ret, - len = this.length, - self = this; - - if ( typeof selector !== "string" ) { - return this.pushStack( jQuery( selector ).filter( function() { - for ( i = 0; i < len; i++ ) { - if ( jQuery.contains( self[ i ], this ) ) { - return true; - } - } - } ) ); - } - - ret = this.pushStack( [] ); - - for ( i = 0; i < len; i++ ) { - jQuery.find( selector, self[ i ], ret ); - } - - return len > 1 ? jQuery.uniqueSort( ret ) : ret; - }, - filter: function( selector ) { - return this.pushStack( winnow( this, selector || [], false ) ); - }, - not: function( selector ) { - return this.pushStack( winnow( this, selector || [], true ) ); - }, - is: function( selector ) { - return !!winnow( - this, - - // If this is a positional/relative selector, check membership in the returned set - // so $("p:first").is("p:last") won't return true for a doc with two "p". - typeof selector === "string" && rneedsContext.test( selector ) ? - jQuery( selector ) : - selector || [], - false - ).length; - } -} ); - - -// Initialize a jQuery object - - -// A central reference to the root jQuery(document) -var rootjQuery, - - // A simple way to check for HTML strings - // Prioritize #id over to avoid XSS via location.hash (#9521) - // Strict HTML recognition (#11290: must start with <) - // Shortcut simple #id case for speed - rquickExpr = /^(?:\s*(<[\w\W]+>)[^>]*|#([\w-]+))$/, - - init = jQuery.fn.init = function( selector, context, root ) { - var match, elem; - - // HANDLE: $(""), $(null), $(undefined), $(false) - if ( !selector ) { - return this; - } - - // Method init() accepts an alternate rootjQuery - // so migrate can support jQuery.sub (gh-2101) - root = root || rootjQuery; - - // Handle HTML strings - if ( typeof selector === "string" ) { - if ( selector[ 0 ] === "<" && - selector[ selector.length - 1 ] === ">" && - selector.length >= 3 ) { - - // Assume that strings that start and end with <> are HTML and skip the regex check - match = [ null, selector, null ]; - - } else { - match = rquickExpr.exec( selector ); - } - - // Match html or make sure no context is specified for #id - if ( match && ( match[ 1 ] || !context ) ) { - - // HANDLE: $(html) -> $(array) - if ( match[ 1 ] ) { - context = context instanceof jQuery ? context[ 0 ] : context; - - // Option to run scripts is true for back-compat - // Intentionally let the error be thrown if parseHTML is not present - jQuery.merge( this, jQuery.parseHTML( - match[ 1 ], - context && context.nodeType ? context.ownerDocument || context : document, - true - ) ); - - // HANDLE: $(html, props) - if ( rsingleTag.test( match[ 1 ] ) && jQuery.isPlainObject( context ) ) { - for ( match in context ) { - - // Properties of context are called as methods if possible - if ( isFunction( this[ match ] ) ) { - this[ match ]( context[ match ] ); - - // ...and otherwise set as attributes - } else { - this.attr( match, context[ match ] ); - } - } - } - - return this; - - // HANDLE: $(#id) - } else { - elem = document.getElementById( match[ 2 ] ); - - if ( elem ) { - - // Inject the element directly into the jQuery object - this[ 0 ] = elem; - this.length = 1; - } - return this; - } - - // HANDLE: $(expr, $(...)) - } else if ( !context || context.jquery ) { - return ( context || root ).find( selector ); - - // HANDLE: $(expr, context) - // (which is just equivalent to: $(context).find(expr) - } else { - return this.constructor( context ).find( selector ); - } - - // HANDLE: $(DOMElement) - } else if ( selector.nodeType ) { - this[ 0 ] = selector; - this.length = 1; - return this; - - // HANDLE: $(function) - // Shortcut for document ready - } else if ( isFunction( selector ) ) { - return root.ready !== undefined ? - root.ready( selector ) : - - // Execute immediately if ready is not present - selector( jQuery ); - } - - return jQuery.makeArray( selector, this ); - }; - -// Give the init function the jQuery prototype for later instantiation -init.prototype = jQuery.fn; - -// Initialize central reference -rootjQuery = jQuery( document ); - - -var rparentsprev = /^(?:parents|prev(?:Until|All))/, - - // Methods guaranteed to produce a unique set when starting from a unique set - guaranteedUnique = { - children: true, - contents: true, - next: true, - prev: true - }; - -jQuery.fn.extend( { - has: function( target ) { - var targets = jQuery( target, this ), - l = targets.length; - - return this.filter( function() { - var i = 0; - for ( ; i < l; i++ ) { - if ( jQuery.contains( this, targets[ i ] ) ) { - return true; - } - } - } ); - }, - - closest: function( selectors, context ) { - var cur, - i = 0, - l = this.length, - matched = [], - targets = typeof selectors !== "string" && jQuery( selectors ); - - // Positional selectors never match, since there's no _selection_ context - if ( !rneedsContext.test( selectors ) ) { - for ( ; i < l; i++ ) { - for ( cur = this[ i ]; cur && cur !== context; cur = cur.parentNode ) { - - // Always skip document fragments - if ( cur.nodeType < 11 && ( targets ? - targets.index( cur ) > -1 : - - // Don't pass non-elements to Sizzle - cur.nodeType === 1 && - jQuery.find.matchesSelector( cur, selectors ) ) ) { - - matched.push( cur ); - break; - } - } - } - } - - return this.pushStack( matched.length > 1 ? jQuery.uniqueSort( matched ) : matched ); - }, - - // Determine the position of an element within the set - index: function( elem ) { - - // No argument, return index in parent - if ( !elem ) { - return ( this[ 0 ] && this[ 0 ].parentNode ) ? this.first().prevAll().length : -1; - } - - // Index in selector - if ( typeof elem === "string" ) { - return indexOf.call( jQuery( elem ), this[ 0 ] ); - } - - // Locate the position of the desired element - return indexOf.call( this, - - // If it receives a jQuery object, the first element is used - elem.jquery ? elem[ 0 ] : elem - ); - }, - - add: function( selector, context ) { - return this.pushStack( - jQuery.uniqueSort( - jQuery.merge( this.get(), jQuery( selector, context ) ) - ) - ); - }, - - addBack: function( selector ) { - return this.add( selector == null ? - this.prevObject : this.prevObject.filter( selector ) - ); - } -} ); - -function sibling( cur, dir ) { - while ( ( cur = cur[ dir ] ) && cur.nodeType !== 1 ) {} - return cur; -} - -jQuery.each( { - parent: function( elem ) { - var parent = elem.parentNode; - return parent && parent.nodeType !== 11 ? parent : null; - }, - parents: function( elem ) { - return dir( elem, "parentNode" ); - }, - parentsUntil: function( elem, _i, until ) { - return dir( elem, "parentNode", until ); - }, - next: function( elem ) { - return sibling( elem, "nextSibling" ); - }, - prev: function( elem ) { - return sibling( elem, "previousSibling" ); - }, - nextAll: function( elem ) { - return dir( elem, "nextSibling" ); - }, - prevAll: function( elem ) { - return dir( elem, "previousSibling" ); - }, - nextUntil: function( elem, _i, until ) { - return dir( elem, "nextSibling", until ); - }, - prevUntil: function( elem, _i, until ) { - return dir( elem, "previousSibling", until ); - }, - siblings: function( elem ) { - return siblings( ( elem.parentNode || {} ).firstChild, elem ); - }, - children: function( elem ) { - return siblings( elem.firstChild ); - }, - contents: function( elem ) { - if ( elem.contentDocument != null && - - // Support: IE 11+ - // elements with no `data` attribute has an object - // `contentDocument` with a `null` prototype. - getProto( elem.contentDocument ) ) { - - return elem.contentDocument; - } - - // Support: IE 9 - 11 only, iOS 7 only, Android Browser <=4.3 only - // Treat the template element as a regular one in browsers that - // don't support it. - if ( nodeName( elem, "template" ) ) { - elem = elem.content || elem; - } - - return jQuery.merge( [], elem.childNodes ); - } -}, function( name, fn ) { - jQuery.fn[ name ] = function( until, selector ) { - var matched = jQuery.map( this, fn, until ); - - if ( name.slice( -5 ) !== "Until" ) { - selector = until; - } - - if ( selector && typeof selector === "string" ) { - matched = jQuery.filter( selector, matched ); - } - - if ( this.length > 1 ) { - - // Remove duplicates - if ( !guaranteedUnique[ name ] ) { - jQuery.uniqueSort( matched ); - } - - // Reverse order for parents* and prev-derivatives - if ( rparentsprev.test( name ) ) { - matched.reverse(); - } - } - - return this.pushStack( matched ); - }; -} ); -var rnothtmlwhite = ( /[^\x20\t\r\n\f]+/g ); - - - -// Convert String-formatted options into Object-formatted ones -function createOptions( options ) { - var object = {}; - jQuery.each( options.match( rnothtmlwhite ) || [], function( _, flag ) { - object[ flag ] = true; - } ); - return object; -} - -/* - * Create a callback list using the following parameters: - * - * options: an optional list of space-separated options that will change how - * the callback list behaves or a more traditional option object - * - * By default a callback list will act like an event callback list and can be - * "fired" multiple times. - * - * Possible options: - * - * once: will ensure the callback list can only be fired once (like a Deferred) - * - * memory: will keep track of previous values and will call any callback added - * after the list has been fired right away with the latest "memorized" - * values (like a Deferred) - * - * unique: will ensure a callback can only be added once (no duplicate in the list) - * - * stopOnFalse: interrupt callings when a callback returns false - * - */ -jQuery.Callbacks = function( options ) { - - // Convert options from String-formatted to Object-formatted if needed - // (we check in cache first) - options = typeof options === "string" ? - createOptions( options ) : - jQuery.extend( {}, options ); - - var // Flag to know if list is currently firing - firing, - - // Last fire value for non-forgettable lists - memory, - - // Flag to know if list was already fired - fired, - - // Flag to prevent firing - locked, - - // Actual callback list - list = [], - - // Queue of execution data for repeatable lists - queue = [], - - // Index of currently firing callback (modified by add/remove as needed) - firingIndex = -1, - - // Fire callbacks - fire = function() { - - // Enforce single-firing - locked = locked || options.once; - - // Execute callbacks for all pending executions, - // respecting firingIndex overrides and runtime changes - fired = firing = true; - for ( ; queue.length; firingIndex = -1 ) { - memory = queue.shift(); - while ( ++firingIndex < list.length ) { - - // Run callback and check for early termination - if ( list[ firingIndex ].apply( memory[ 0 ], memory[ 1 ] ) === false && - options.stopOnFalse ) { - - // Jump to end and forget the data so .add doesn't re-fire - firingIndex = list.length; - memory = false; - } - } - } - - // Forget the data if we're done with it - if ( !options.memory ) { - memory = false; - } - - firing = false; - - // Clean up if we're done firing for good - if ( locked ) { - - // Keep an empty list if we have data for future add calls - if ( memory ) { - list = []; - - // Otherwise, this object is spent - } else { - list = ""; - } - } - }, - - // Actual Callbacks object - self = { - - // Add a callback or a collection of callbacks to the list - add: function() { - if ( list ) { - - // If we have memory from a past run, we should fire after adding - if ( memory && !firing ) { - firingIndex = list.length - 1; - queue.push( memory ); - } - - ( function add( args ) { - jQuery.each( args, function( _, arg ) { - if ( isFunction( arg ) ) { - if ( !options.unique || !self.has( arg ) ) { - list.push( arg ); - } - } else if ( arg && arg.length && toType( arg ) !== "string" ) { - - // Inspect recursively - add( arg ); - } - } ); - } )( arguments ); - - if ( memory && !firing ) { - fire(); - } - } - return this; - }, - - // Remove a callback from the list - remove: function() { - jQuery.each( arguments, function( _, arg ) { - var index; - while ( ( index = jQuery.inArray( arg, list, index ) ) > -1 ) { - list.splice( index, 1 ); - - // Handle firing indexes - if ( index <= firingIndex ) { - firingIndex--; - } - } - } ); - return this; - }, - - // Check if a given callback is in the list. - // If no argument is given, return whether or not list has callbacks attached. - has: function( fn ) { - return fn ? - jQuery.inArray( fn, list ) > -1 : - list.length > 0; - }, - - // Remove all callbacks from the list - empty: function() { - if ( list ) { - list = []; - } - return this; - }, - - // Disable .fire and .add - // Abort any current/pending executions - // Clear all callbacks and values - disable: function() { - locked = queue = []; - list = memory = ""; - return this; - }, - disabled: function() { - return !list; - }, - - // Disable .fire - // Also disable .add unless we have memory (since it would have no effect) - // Abort any pending executions - lock: function() { - locked = queue = []; - if ( !memory && !firing ) { - list = memory = ""; - } - return this; - }, - locked: function() { - return !!locked; - }, - - // Call all callbacks with the given context and arguments - fireWith: function( context, args ) { - if ( !locked ) { - args = args || []; - args = [ context, args.slice ? args.slice() : args ]; - queue.push( args ); - if ( !firing ) { - fire(); - } - } - return this; - }, - - // Call all the callbacks with the given arguments - fire: function() { - self.fireWith( this, arguments ); - return this; - }, - - // To know if the callbacks have already been called at least once - fired: function() { - return !!fired; - } - }; - - return self; -}; - - -function Identity( v ) { - return v; -} -function Thrower( ex ) { - throw ex; -} - -function adoptValue( value, resolve, reject, noValue ) { - var method; - - try { - - // Check for promise aspect first to privilege synchronous behavior - if ( value && isFunction( ( method = value.promise ) ) ) { - method.call( value ).done( resolve ).fail( reject ); - - // Other thenables - } else if ( value && isFunction( ( method = value.then ) ) ) { - method.call( value, resolve, reject ); - - // Other non-thenables - } else { - - // Control `resolve` arguments by letting Array#slice cast boolean `noValue` to integer: - // * false: [ value ].slice( 0 ) => resolve( value ) - // * true: [ value ].slice( 1 ) => resolve() - resolve.apply( undefined, [ value ].slice( noValue ) ); - } - - // For Promises/A+, convert exceptions into rejections - // Since jQuery.when doesn't unwrap thenables, we can skip the extra checks appearing in - // Deferred#then to conditionally suppress rejection. - } catch ( value ) { - - // Support: Android 4.0 only - // Strict mode functions invoked without .call/.apply get global-object context - reject.apply( undefined, [ value ] ); - } -} - -jQuery.extend( { - - Deferred: function( func ) { - var tuples = [ - - // action, add listener, callbacks, - // ... .then handlers, argument index, [final state] - [ "notify", "progress", jQuery.Callbacks( "memory" ), - jQuery.Callbacks( "memory" ), 2 ], - [ "resolve", "done", jQuery.Callbacks( "once memory" ), - jQuery.Callbacks( "once memory" ), 0, "resolved" ], - [ "reject", "fail", jQuery.Callbacks( "once memory" ), - jQuery.Callbacks( "once memory" ), 1, "rejected" ] - ], - state = "pending", - promise = { - state: function() { - return state; - }, - always: function() { - deferred.done( arguments ).fail( arguments ); - return this; - }, - "catch": function( fn ) { - return promise.then( null, fn ); - }, - - // Keep pipe for back-compat - pipe: function( /* fnDone, fnFail, fnProgress */ ) { - var fns = arguments; - - return jQuery.Deferred( function( newDefer ) { - jQuery.each( tuples, function( _i, tuple ) { - - // Map tuples (progress, done, fail) to arguments (done, fail, progress) - var fn = isFunction( fns[ tuple[ 4 ] ] ) && fns[ tuple[ 4 ] ]; - - // deferred.progress(function() { bind to newDefer or newDefer.notify }) - // deferred.done(function() { bind to newDefer or newDefer.resolve }) - // deferred.fail(function() { bind to newDefer or newDefer.reject }) - deferred[ tuple[ 1 ] ]( function() { - var returned = fn && fn.apply( this, arguments ); - if ( returned && isFunction( returned.promise ) ) { - returned.promise() - .progress( newDefer.notify ) - .done( newDefer.resolve ) - .fail( newDefer.reject ); - } else { - newDefer[ tuple[ 0 ] + "With" ]( - this, - fn ? [ returned ] : arguments - ); - } - } ); - } ); - fns = null; - } ).promise(); - }, - then: function( onFulfilled, onRejected, onProgress ) { - var maxDepth = 0; - function resolve( depth, deferred, handler, special ) { - return function() { - var that = this, - args = arguments, - mightThrow = function() { - var returned, then; - - // Support: Promises/A+ section 2.3.3.3.3 - // https://promisesaplus.com/#point-59 - // Ignore double-resolution attempts - if ( depth < maxDepth ) { - return; - } - - returned = handler.apply( that, args ); - - // Support: Promises/A+ section 2.3.1 - // https://promisesaplus.com/#point-48 - if ( returned === deferred.promise() ) { - throw new TypeError( "Thenable self-resolution" ); - } - - // Support: Promises/A+ sections 2.3.3.1, 3.5 - // https://promisesaplus.com/#point-54 - // https://promisesaplus.com/#point-75 - // Retrieve `then` only once - then = returned && - - // Support: Promises/A+ section 2.3.4 - // https://promisesaplus.com/#point-64 - // Only check objects and functions for thenability - ( typeof returned === "object" || - typeof returned === "function" ) && - returned.then; - - // Handle a returned thenable - if ( isFunction( then ) ) { - - // Special processors (notify) just wait for resolution - if ( special ) { - then.call( - returned, - resolve( maxDepth, deferred, Identity, special ), - resolve( maxDepth, deferred, Thrower, special ) - ); - - // Normal processors (resolve) also hook into progress - } else { - - // ...and disregard older resolution values - maxDepth++; - - then.call( - returned, - resolve( maxDepth, deferred, Identity, special ), - resolve( maxDepth, deferred, Thrower, special ), - resolve( maxDepth, deferred, Identity, - deferred.notifyWith ) - ); - } - - // Handle all other returned values - } else { - - // Only substitute handlers pass on context - // and multiple values (non-spec behavior) - if ( handler !== Identity ) { - that = undefined; - args = [ returned ]; - } - - // Process the value(s) - // Default process is resolve - ( special || deferred.resolveWith )( that, args ); - } - }, - - // Only normal processors (resolve) catch and reject exceptions - process = special ? - mightThrow : - function() { - try { - mightThrow(); - } catch ( e ) { - - if ( jQuery.Deferred.exceptionHook ) { - jQuery.Deferred.exceptionHook( e, - process.stackTrace ); - } - - // Support: Promises/A+ section 2.3.3.3.4.1 - // https://promisesaplus.com/#point-61 - // Ignore post-resolution exceptions - if ( depth + 1 >= maxDepth ) { - - // Only substitute handlers pass on context - // and multiple values (non-spec behavior) - if ( handler !== Thrower ) { - that = undefined; - args = [ e ]; - } - - deferred.rejectWith( that, args ); - } - } - }; - - // Support: Promises/A+ section 2.3.3.3.1 - // https://promisesaplus.com/#point-57 - // Re-resolve promises immediately to dodge false rejection from - // subsequent errors - if ( depth ) { - process(); - } else { - - // Call an optional hook to record the stack, in case of exception - // since it's otherwise lost when execution goes async - if ( jQuery.Deferred.getStackHook ) { - process.stackTrace = jQuery.Deferred.getStackHook(); - } - window.setTimeout( process ); - } - }; - } - - return jQuery.Deferred( function( newDefer ) { - - // progress_handlers.add( ... ) - tuples[ 0 ][ 3 ].add( - resolve( - 0, - newDefer, - isFunction( onProgress ) ? - onProgress : - Identity, - newDefer.notifyWith - ) - ); - - // fulfilled_handlers.add( ... ) - tuples[ 1 ][ 3 ].add( - resolve( - 0, - newDefer, - isFunction( onFulfilled ) ? - onFulfilled : - Identity - ) - ); - - // rejected_handlers.add( ... ) - tuples[ 2 ][ 3 ].add( - resolve( - 0, - newDefer, - isFunction( onRejected ) ? - onRejected : - Thrower - ) - ); - } ).promise(); - }, - - // Get a promise for this deferred - // If obj is provided, the promise aspect is added to the object - promise: function( obj ) { - return obj != null ? jQuery.extend( obj, promise ) : promise; - } - }, - deferred = {}; - - // Add list-specific methods - jQuery.each( tuples, function( i, tuple ) { - var list = tuple[ 2 ], - stateString = tuple[ 5 ]; - - // promise.progress = list.add - // promise.done = list.add - // promise.fail = list.add - promise[ tuple[ 1 ] ] = list.add; - - // Handle state - if ( stateString ) { - list.add( - function() { - - // state = "resolved" (i.e., fulfilled) - // state = "rejected" - state = stateString; - }, - - // rejected_callbacks.disable - // fulfilled_callbacks.disable - tuples[ 3 - i ][ 2 ].disable, - - // rejected_handlers.disable - // fulfilled_handlers.disable - tuples[ 3 - i ][ 3 ].disable, - - // progress_callbacks.lock - tuples[ 0 ][ 2 ].lock, - - // progress_handlers.lock - tuples[ 0 ][ 3 ].lock - ); - } - - // progress_handlers.fire - // fulfilled_handlers.fire - // rejected_handlers.fire - list.add( tuple[ 3 ].fire ); - - // deferred.notify = function() { deferred.notifyWith(...) } - // deferred.resolve = function() { deferred.resolveWith(...) } - // deferred.reject = function() { deferred.rejectWith(...) } - deferred[ tuple[ 0 ] ] = function() { - deferred[ tuple[ 0 ] + "With" ]( this === deferred ? undefined : this, arguments ); - return this; - }; - - // deferred.notifyWith = list.fireWith - // deferred.resolveWith = list.fireWith - // deferred.rejectWith = list.fireWith - deferred[ tuple[ 0 ] + "With" ] = list.fireWith; - } ); - - // Make the deferred a promise - promise.promise( deferred ); - - // Call given func if any - if ( func ) { - func.call( deferred, deferred ); - } - - // All done! - return deferred; - }, - - // Deferred helper - when: function( singleValue ) { - var - - // count of uncompleted subordinates - remaining = arguments.length, - - // count of unprocessed arguments - i = remaining, - - // subordinate fulfillment data - resolveContexts = Array( i ), - resolveValues = slice.call( arguments ), - - // the master Deferred - master = jQuery.Deferred(), - - // subordinate callback factory - updateFunc = function( i ) { - return function( value ) { - resolveContexts[ i ] = this; - resolveValues[ i ] = arguments.length > 1 ? slice.call( arguments ) : value; - if ( !( --remaining ) ) { - master.resolveWith( resolveContexts, resolveValues ); - } - }; - }; - - // Single- and empty arguments are adopted like Promise.resolve - if ( remaining <= 1 ) { - adoptValue( singleValue, master.done( updateFunc( i ) ).resolve, master.reject, - !remaining ); - - // Use .then() to unwrap secondary thenables (cf. gh-3000) - if ( master.state() === "pending" || - isFunction( resolveValues[ i ] && resolveValues[ i ].then ) ) { - - return master.then(); - } - } - - // Multiple arguments are aggregated like Promise.all array elements - while ( i-- ) { - adoptValue( resolveValues[ i ], updateFunc( i ), master.reject ); - } - - return master.promise(); - } -} ); - - -// These usually indicate a programmer mistake during development, -// warn about them ASAP rather than swallowing them by default. -var rerrorNames = /^(Eval|Internal|Range|Reference|Syntax|Type|URI)Error$/; - -jQuery.Deferred.exceptionHook = function( error, stack ) { - - // Support: IE 8 - 9 only - // Console exists when dev tools are open, which can happen at any time - if ( window.console && window.console.warn && error && rerrorNames.test( error.name ) ) { - window.console.warn( "jQuery.Deferred exception: " + error.message, error.stack, stack ); - } -}; - - - - -jQuery.readyException = function( error ) { - window.setTimeout( function() { - throw error; - } ); -}; - - - - -// The deferred used on DOM ready -var readyList = jQuery.Deferred(); - -jQuery.fn.ready = function( fn ) { - - readyList - .then( fn ) - - // Wrap jQuery.readyException in a function so that the lookup - // happens at the time of error handling instead of callback - // registration. - .catch( function( error ) { - jQuery.readyException( error ); - } ); - - return this; -}; - -jQuery.extend( { - - // Is the DOM ready to be used? Set to true once it occurs. - isReady: false, - - // A counter to track how many items to wait for before - // the ready event fires. See #6781 - readyWait: 1, - - // Handle when the DOM is ready - ready: function( wait ) { - - // Abort if there are pending holds or we're already ready - if ( wait === true ? --jQuery.readyWait : jQuery.isReady ) { - return; - } - - // Remember that the DOM is ready - jQuery.isReady = true; - - // If a normal DOM Ready event fired, decrement, and wait if need be - if ( wait !== true && --jQuery.readyWait > 0 ) { - return; - } - - // If there are functions bound, to execute - readyList.resolveWith( document, [ jQuery ] ); - } -} ); - -jQuery.ready.then = readyList.then; - -// The ready event handler and self cleanup method -function completed() { - document.removeEventListener( "DOMContentLoaded", completed ); - window.removeEventListener( "load", completed ); - jQuery.ready(); -} - -// Catch cases where $(document).ready() is called -// after the browser event has already occurred. -// Support: IE <=9 - 10 only -// Older IE sometimes signals "interactive" too soon -if ( document.readyState === "complete" || - ( document.readyState !== "loading" && !document.documentElement.doScroll ) ) { - - // Handle it asynchronously to allow scripts the opportunity to delay ready - window.setTimeout( jQuery.ready ); - -} else { - - // Use the handy event callback - document.addEventListener( "DOMContentLoaded", completed ); - - // A fallback to window.onload, that will always work - window.addEventListener( "load", completed ); -} - - - - -// Multifunctional method to get and set values of a collection -// The value/s can optionally be executed if it's a function -var access = function( elems, fn, key, value, chainable, emptyGet, raw ) { - var i = 0, - len = elems.length, - bulk = key == null; - - // Sets many values - if ( toType( key ) === "object" ) { - chainable = true; - for ( i in key ) { - access( elems, fn, i, key[ i ], true, emptyGet, raw ); - } - - // Sets one value - } else if ( value !== undefined ) { - chainable = true; - - if ( !isFunction( value ) ) { - raw = true; - } - - if ( bulk ) { - - // Bulk operations run against the entire set - if ( raw ) { - fn.call( elems, value ); - fn = null; - - // ...except when executing function values - } else { - bulk = fn; - fn = function( elem, _key, value ) { - return bulk.call( jQuery( elem ), value ); - }; - } - } - - if ( fn ) { - for ( ; i < len; i++ ) { - fn( - elems[ i ], key, raw ? - value : - value.call( elems[ i ], i, fn( elems[ i ], key ) ) - ); - } - } - } - - if ( chainable ) { - return elems; - } - - // Gets - if ( bulk ) { - return fn.call( elems ); - } - - return len ? fn( elems[ 0 ], key ) : emptyGet; -}; - - -// Matches dashed string for camelizing -var rmsPrefix = /^-ms-/, - rdashAlpha = /-([a-z])/g; - -// Used by camelCase as callback to replace() -function fcamelCase( _all, letter ) { - return letter.toUpperCase(); -} - -// Convert dashed to camelCase; used by the css and data modules -// Support: IE <=9 - 11, Edge 12 - 15 -// Microsoft forgot to hump their vendor prefix (#9572) -function camelCase( string ) { - return string.replace( rmsPrefix, "ms-" ).replace( rdashAlpha, fcamelCase ); -} -var acceptData = function( owner ) { - - // Accepts only: - // - Node - // - Node.ELEMENT_NODE - // - Node.DOCUMENT_NODE - // - Object - // - Any - return owner.nodeType === 1 || owner.nodeType === 9 || !( +owner.nodeType ); -}; - - - - -function Data() { - this.expando = jQuery.expando + Data.uid++; -} - -Data.uid = 1; - -Data.prototype = { - - cache: function( owner ) { - - // Check if the owner object already has a cache - var value = owner[ this.expando ]; - - // If not, create one - if ( !value ) { - value = {}; - - // We can accept data for non-element nodes in modern browsers, - // but we should not, see #8335. - // Always return an empty object. - if ( acceptData( owner ) ) { - - // If it is a node unlikely to be stringify-ed or looped over - // use plain assignment - if ( owner.nodeType ) { - owner[ this.expando ] = value; - - // Otherwise secure it in a non-enumerable property - // configurable must be true to allow the property to be - // deleted when data is removed - } else { - Object.defineProperty( owner, this.expando, { - value: value, - configurable: true - } ); - } - } - } - - return value; - }, - set: function( owner, data, value ) { - var prop, - cache = this.cache( owner ); - - // Handle: [ owner, key, value ] args - // Always use camelCase key (gh-2257) - if ( typeof data === "string" ) { - cache[ camelCase( data ) ] = value; - - // Handle: [ owner, { properties } ] args - } else { - - // Copy the properties one-by-one to the cache object - for ( prop in data ) { - cache[ camelCase( prop ) ] = data[ prop ]; - } - } - return cache; - }, - get: function( owner, key ) { - return key === undefined ? - this.cache( owner ) : - - // Always use camelCase key (gh-2257) - owner[ this.expando ] && owner[ this.expando ][ camelCase( key ) ]; - }, - access: function( owner, key, value ) { - - // In cases where either: - // - // 1. No key was specified - // 2. A string key was specified, but no value provided - // - // Take the "read" path and allow the get method to determine - // which value to return, respectively either: - // - // 1. The entire cache object - // 2. The data stored at the key - // - if ( key === undefined || - ( ( key && typeof key === "string" ) && value === undefined ) ) { - - return this.get( owner, key ); - } - - // When the key is not a string, or both a key and value - // are specified, set or extend (existing objects) with either: - // - // 1. An object of properties - // 2. A key and value - // - this.set( owner, key, value ); - - // Since the "set" path can have two possible entry points - // return the expected data based on which path was taken[*] - return value !== undefined ? value : key; - }, - remove: function( owner, key ) { - var i, - cache = owner[ this.expando ]; - - if ( cache === undefined ) { - return; - } - - if ( key !== undefined ) { - - // Support array or space separated string of keys - if ( Array.isArray( key ) ) { - - // If key is an array of keys... - // We always set camelCase keys, so remove that. - key = key.map( camelCase ); - } else { - key = camelCase( key ); - - // If a key with the spaces exists, use it. - // Otherwise, create an array by matching non-whitespace - key = key in cache ? - [ key ] : - ( key.match( rnothtmlwhite ) || [] ); - } - - i = key.length; - - while ( i-- ) { - delete cache[ key[ i ] ]; - } - } - - // Remove the expando if there's no more data - if ( key === undefined || jQuery.isEmptyObject( cache ) ) { - - // Support: Chrome <=35 - 45 - // Webkit & Blink performance suffers when deleting properties - // from DOM nodes, so set to undefined instead - // https://bugs.chromium.org/p/chromium/issues/detail?id=378607 (bug restricted) - if ( owner.nodeType ) { - owner[ this.expando ] = undefined; - } else { - delete owner[ this.expando ]; - } - } - }, - hasData: function( owner ) { - var cache = owner[ this.expando ]; - return cache !== undefined && !jQuery.isEmptyObject( cache ); - } -}; -var dataPriv = new Data(); - -var dataUser = new Data(); - - - -// Implementation Summary -// -// 1. Enforce API surface and semantic compatibility with 1.9.x branch -// 2. Improve the module's maintainability by reducing the storage -// paths to a single mechanism. -// 3. Use the same single mechanism to support "private" and "user" data. -// 4. _Never_ expose "private" data to user code (TODO: Drop _data, _removeData) -// 5. Avoid exposing implementation details on user objects (eg. expando properties) -// 6. Provide a clear path for implementation upgrade to WeakMap in 2014 - -var rbrace = /^(?:\{[\w\W]*\}|\[[\w\W]*\])$/, - rmultiDash = /[A-Z]/g; - -function getData( data ) { - if ( data === "true" ) { - return true; - } - - if ( data === "false" ) { - return false; - } - - if ( data === "null" ) { - return null; - } - - // Only convert to a number if it doesn't change the string - if ( data === +data + "" ) { - return +data; - } - - if ( rbrace.test( data ) ) { - return JSON.parse( data ); - } - - return data; -} - -function dataAttr( elem, key, data ) { - var name; - - // If nothing was found internally, try to fetch any - // data from the HTML5 data-* attribute - if ( data === undefined && elem.nodeType === 1 ) { - name = "data-" + key.replace( rmultiDash, "-$&" ).toLowerCase(); - data = elem.getAttribute( name ); - - if ( typeof data === "string" ) { - try { - data = getData( data ); - } catch ( e ) {} - - // Make sure we set the data so it isn't changed later - dataUser.set( elem, key, data ); - } else { - data = undefined; - } - } - return data; -} - -jQuery.extend( { - hasData: function( elem ) { - return dataUser.hasData( elem ) || dataPriv.hasData( elem ); - }, - - data: function( elem, name, data ) { - return dataUser.access( elem, name, data ); - }, - - removeData: function( elem, name ) { - dataUser.remove( elem, name ); - }, - - // TODO: Now that all calls to _data and _removeData have been replaced - // with direct calls to dataPriv methods, these can be deprecated. - _data: function( elem, name, data ) { - return dataPriv.access( elem, name, data ); - }, - - _removeData: function( elem, name ) { - dataPriv.remove( elem, name ); - } -} ); - -jQuery.fn.extend( { - data: function( key, value ) { - var i, name, data, - elem = this[ 0 ], - attrs = elem && elem.attributes; - - // Gets all values - if ( key === undefined ) { - if ( this.length ) { - data = dataUser.get( elem ); - - if ( elem.nodeType === 1 && !dataPriv.get( elem, "hasDataAttrs" ) ) { - i = attrs.length; - while ( i-- ) { - - // Support: IE 11 only - // The attrs elements can be null (#14894) - if ( attrs[ i ] ) { - name = attrs[ i ].name; - if ( name.indexOf( "data-" ) === 0 ) { - name = camelCase( name.slice( 5 ) ); - dataAttr( elem, name, data[ name ] ); - } - } - } - dataPriv.set( elem, "hasDataAttrs", true ); - } - } - - return data; - } - - // Sets multiple values - if ( typeof key === "object" ) { - return this.each( function() { - dataUser.set( this, key ); - } ); - } - - return access( this, function( value ) { - var data; - - // The calling jQuery object (element matches) is not empty - // (and therefore has an element appears at this[ 0 ]) and the - // `value` parameter was not undefined. An empty jQuery object - // will result in `undefined` for elem = this[ 0 ] which will - // throw an exception if an attempt to read a data cache is made. - if ( elem && value === undefined ) { - - // Attempt to get data from the cache - // The key will always be camelCased in Data - data = dataUser.get( elem, key ); - if ( data !== undefined ) { - return data; - } - - // Attempt to "discover" the data in - // HTML5 custom data-* attrs - data = dataAttr( elem, key ); - if ( data !== undefined ) { - return data; - } - - // We tried really hard, but the data doesn't exist. - return; - } - - // Set the data... - this.each( function() { - - // We always store the camelCased key - dataUser.set( this, key, value ); - } ); - }, null, value, arguments.length > 1, null, true ); - }, - - removeData: function( key ) { - return this.each( function() { - dataUser.remove( this, key ); - } ); - } -} ); - - -jQuery.extend( { - queue: function( elem, type, data ) { - var queue; - - if ( elem ) { - type = ( type || "fx" ) + "queue"; - queue = dataPriv.get( elem, type ); - - // Speed up dequeue by getting out quickly if this is just a lookup - if ( data ) { - if ( !queue || Array.isArray( data ) ) { - queue = dataPriv.access( elem, type, jQuery.makeArray( data ) ); - } else { - queue.push( data ); - } - } - return queue || []; - } - }, - - dequeue: function( elem, type ) { - type = type || "fx"; - - var queue = jQuery.queue( elem, type ), - startLength = queue.length, - fn = queue.shift(), - hooks = jQuery._queueHooks( elem, type ), - next = function() { - jQuery.dequeue( elem, type ); - }; - - // If the fx queue is dequeued, always remove the progress sentinel - if ( fn === "inprogress" ) { - fn = queue.shift(); - startLength--; - } - - if ( fn ) { - - // Add a progress sentinel to prevent the fx queue from being - // automatically dequeued - if ( type === "fx" ) { - queue.unshift( "inprogress" ); - } - - // Clear up the last queue stop function - delete hooks.stop; - fn.call( elem, next, hooks ); - } - - if ( !startLength && hooks ) { - hooks.empty.fire(); - } - }, - - // Not public - generate a queueHooks object, or return the current one - _queueHooks: function( elem, type ) { - var key = type + "queueHooks"; - return dataPriv.get( elem, key ) || dataPriv.access( elem, key, { - empty: jQuery.Callbacks( "once memory" ).add( function() { - dataPriv.remove( elem, [ type + "queue", key ] ); - } ) - } ); - } -} ); - -jQuery.fn.extend( { - queue: function( type, data ) { - var setter = 2; - - if ( typeof type !== "string" ) { - data = type; - type = "fx"; - setter--; - } - - if ( arguments.length < setter ) { - return jQuery.queue( this[ 0 ], type ); - } - - return data === undefined ? - this : - this.each( function() { - var queue = jQuery.queue( this, type, data ); - - // Ensure a hooks for this queue - jQuery._queueHooks( this, type ); - - if ( type === "fx" && queue[ 0 ] !== "inprogress" ) { - jQuery.dequeue( this, type ); - } - } ); - }, - dequeue: function( type ) { - return this.each( function() { - jQuery.dequeue( this, type ); - } ); - }, - clearQueue: function( type ) { - return this.queue( type || "fx", [] ); - }, - - // Get a promise resolved when queues of a certain type - // are emptied (fx is the type by default) - promise: function( type, obj ) { - var tmp, - count = 1, - defer = jQuery.Deferred(), - elements = this, - i = this.length, - resolve = function() { - if ( !( --count ) ) { - defer.resolveWith( elements, [ elements ] ); - } - }; - - if ( typeof type !== "string" ) { - obj = type; - type = undefined; - } - type = type || "fx"; - - while ( i-- ) { - tmp = dataPriv.get( elements[ i ], type + "queueHooks" ); - if ( tmp && tmp.empty ) { - count++; - tmp.empty.add( resolve ); - } - } - resolve(); - return defer.promise( obj ); - } -} ); -var pnum = ( /[+-]?(?:\d*\.|)\d+(?:[eE][+-]?\d+|)/ ).source; - -var rcssNum = new RegExp( "^(?:([+-])=|)(" + pnum + ")([a-z%]*)$", "i" ); - - -var cssExpand = [ "Top", "Right", "Bottom", "Left" ]; - -var documentElement = document.documentElement; - - - - var isAttached = function( elem ) { - return jQuery.contains( elem.ownerDocument, elem ); - }, - composed = { composed: true }; - - // Support: IE 9 - 11+, Edge 12 - 18+, iOS 10.0 - 10.2 only - // Check attachment across shadow DOM boundaries when possible (gh-3504) - // Support: iOS 10.0-10.2 only - // Early iOS 10 versions support `attachShadow` but not `getRootNode`, - // leading to errors. We need to check for `getRootNode`. - if ( documentElement.getRootNode ) { - isAttached = function( elem ) { - return jQuery.contains( elem.ownerDocument, elem ) || - elem.getRootNode( composed ) === elem.ownerDocument; - }; - } -var isHiddenWithinTree = function( elem, el ) { - - // isHiddenWithinTree might be called from jQuery#filter function; - // in that case, element will be second argument - elem = el || elem; - - // Inline style trumps all - return elem.style.display === "none" || - elem.style.display === "" && - - // Otherwise, check computed style - // Support: Firefox <=43 - 45 - // Disconnected elements can have computed display: none, so first confirm that elem is - // in the document. - isAttached( elem ) && - - jQuery.css( elem, "display" ) === "none"; - }; - - - -function adjustCSS( elem, prop, valueParts, tween ) { - var adjusted, scale, - maxIterations = 20, - currentValue = tween ? - function() { - return tween.cur(); - } : - function() { - return jQuery.css( elem, prop, "" ); - }, - initial = currentValue(), - unit = valueParts && valueParts[ 3 ] || ( jQuery.cssNumber[ prop ] ? "" : "px" ), - - // Starting value computation is required for potential unit mismatches - initialInUnit = elem.nodeType && - ( jQuery.cssNumber[ prop ] || unit !== "px" && +initial ) && - rcssNum.exec( jQuery.css( elem, prop ) ); - - if ( initialInUnit && initialInUnit[ 3 ] !== unit ) { - - // Support: Firefox <=54 - // Halve the iteration target value to prevent interference from CSS upper bounds (gh-2144) - initial = initial / 2; - - // Trust units reported by jQuery.css - unit = unit || initialInUnit[ 3 ]; - - // Iteratively approximate from a nonzero starting point - initialInUnit = +initial || 1; - - while ( maxIterations-- ) { - - // Evaluate and update our best guess (doubling guesses that zero out). - // Finish if the scale equals or crosses 1 (making the old*new product non-positive). - jQuery.style( elem, prop, initialInUnit + unit ); - if ( ( 1 - scale ) * ( 1 - ( scale = currentValue() / initial || 0.5 ) ) <= 0 ) { - maxIterations = 0; - } - initialInUnit = initialInUnit / scale; - - } - - initialInUnit = initialInUnit * 2; - jQuery.style( elem, prop, initialInUnit + unit ); - - // Make sure we update the tween properties later on - valueParts = valueParts || []; - } - - if ( valueParts ) { - initialInUnit = +initialInUnit || +initial || 0; - - // Apply relative offset (+=/-=) if specified - adjusted = valueParts[ 1 ] ? - initialInUnit + ( valueParts[ 1 ] + 1 ) * valueParts[ 2 ] : - +valueParts[ 2 ]; - if ( tween ) { - tween.unit = unit; - tween.start = initialInUnit; - tween.end = adjusted; - } - } - return adjusted; -} - - -var defaultDisplayMap = {}; - -function getDefaultDisplay( elem ) { - var temp, - doc = elem.ownerDocument, - nodeName = elem.nodeName, - display = defaultDisplayMap[ nodeName ]; - - if ( display ) { - return display; - } - - temp = doc.body.appendChild( doc.createElement( nodeName ) ); - display = jQuery.css( temp, "display" ); - - temp.parentNode.removeChild( temp ); - - if ( display === "none" ) { - display = "block"; - } - defaultDisplayMap[ nodeName ] = display; - - return display; -} - -function showHide( elements, show ) { - var display, elem, - values = [], - index = 0, - length = elements.length; - - // Determine new display value for elements that need to change - for ( ; index < length; index++ ) { - elem = elements[ index ]; - if ( !elem.style ) { - continue; - } - - display = elem.style.display; - if ( show ) { - - // Since we force visibility upon cascade-hidden elements, an immediate (and slow) - // check is required in this first loop unless we have a nonempty display value (either - // inline or about-to-be-restored) - if ( display === "none" ) { - values[ index ] = dataPriv.get( elem, "display" ) || null; - if ( !values[ index ] ) { - elem.style.display = ""; - } - } - if ( elem.style.display === "" && isHiddenWithinTree( elem ) ) { - values[ index ] = getDefaultDisplay( elem ); - } - } else { - if ( display !== "none" ) { - values[ index ] = "none"; - - // Remember what we're overwriting - dataPriv.set( elem, "display", display ); - } - } - } - - // Set the display of the elements in a second loop to avoid constant reflow - for ( index = 0; index < length; index++ ) { - if ( values[ index ] != null ) { - elements[ index ].style.display = values[ index ]; - } - } - - return elements; -} - -jQuery.fn.extend( { - show: function() { - return showHide( this, true ); - }, - hide: function() { - return showHide( this ); - }, - toggle: function( state ) { - if ( typeof state === "boolean" ) { - return state ? this.show() : this.hide(); - } - - return this.each( function() { - if ( isHiddenWithinTree( this ) ) { - jQuery( this ).show(); - } else { - jQuery( this ).hide(); - } - } ); - } -} ); -var rcheckableType = ( /^(?:checkbox|radio)$/i ); - -var rtagName = ( /<([a-z][^\/\0>\x20\t\r\n\f]*)/i ); - -var rscriptType = ( /^$|^module$|\/(?:java|ecma)script/i ); - - - -( function() { - var fragment = document.createDocumentFragment(), - div = fragment.appendChild( document.createElement( "div" ) ), - input = document.createElement( "input" ); - - // Support: Android 4.0 - 4.3 only - // Check state lost if the name is set (#11217) - // Support: Windows Web Apps (WWA) - // `name` and `type` must use .setAttribute for WWA (#14901) - input.setAttribute( "type", "radio" ); - input.setAttribute( "checked", "checked" ); - input.setAttribute( "name", "t" ); - - div.appendChild( input ); - - // Support: Android <=4.1 only - // Older WebKit doesn't clone checked state correctly in fragments - support.checkClone = div.cloneNode( true ).cloneNode( true ).lastChild.checked; - - // Support: IE <=11 only - // Make sure textarea (and checkbox) defaultValue is properly cloned - div.innerHTML = ""; - support.noCloneChecked = !!div.cloneNode( true ).lastChild.defaultValue; - - // Support: IE <=9 only - // IE <=9 replaces "; - support.option = !!div.lastChild; -} )(); - - -// We have to close these tags to support XHTML (#13200) -var wrapMap = { - - // XHTML parsers do not magically insert elements in the - // same way that tag soup parsers do. So we cannot shorten - // this by omitting or other required elements. - thead: [ 1, "", "
" ], - col: [ 2, "", "
" ], - tr: [ 2, "", "
" ], - td: [ 3, "", "
" ], - - _default: [ 0, "", "" ] -}; - -wrapMap.tbody = wrapMap.tfoot = wrapMap.colgroup = wrapMap.caption = wrapMap.thead; -wrapMap.th = wrapMap.td; - -// Support: IE <=9 only -if ( !support.option ) { - wrapMap.optgroup = wrapMap.option = [ 1, "" ]; -} - - -function getAll( context, tag ) { - - // Support: IE <=9 - 11 only - // Use typeof to avoid zero-argument method invocation on host objects (#15151) - var ret; - - if ( typeof context.getElementsByTagName !== "undefined" ) { - ret = context.getElementsByTagName( tag || "*" ); - - } else if ( typeof context.querySelectorAll !== "undefined" ) { - ret = context.querySelectorAll( tag || "*" ); - - } else { - ret = []; - } - - if ( tag === undefined || tag && nodeName( context, tag ) ) { - return jQuery.merge( [ context ], ret ); - } - - return ret; -} - - -// Mark scripts as having already been evaluated -function setGlobalEval( elems, refElements ) { - var i = 0, - l = elems.length; - - for ( ; i < l; i++ ) { - dataPriv.set( - elems[ i ], - "globalEval", - !refElements || dataPriv.get( refElements[ i ], "globalEval" ) - ); - } -} - - -var rhtml = /<|&#?\w+;/; - -function buildFragment( elems, context, scripts, selection, ignored ) { - var elem, tmp, tag, wrap, attached, j, - fragment = context.createDocumentFragment(), - nodes = [], - i = 0, - l = elems.length; - - for ( ; i < l; i++ ) { - elem = elems[ i ]; - - if ( elem || elem === 0 ) { - - // Add nodes directly - if ( toType( elem ) === "object" ) { - - // Support: Android <=4.0 only, PhantomJS 1 only - // push.apply(_, arraylike) throws on ancient WebKit - jQuery.merge( nodes, elem.nodeType ? [ elem ] : elem ); - - // Convert non-html into a text node - } else if ( !rhtml.test( elem ) ) { - nodes.push( context.createTextNode( elem ) ); - - // Convert html into DOM nodes - } else { - tmp = tmp || fragment.appendChild( context.createElement( "div" ) ); - - // Deserialize a standard representation - tag = ( rtagName.exec( elem ) || [ "", "" ] )[ 1 ].toLowerCase(); - wrap = wrapMap[ tag ] || wrapMap._default; - tmp.innerHTML = wrap[ 1 ] + jQuery.htmlPrefilter( elem ) + wrap[ 2 ]; - - // Descend through wrappers to the right content - j = wrap[ 0 ]; - while ( j-- ) { - tmp = tmp.lastChild; - } - - // Support: Android <=4.0 only, PhantomJS 1 only - // push.apply(_, arraylike) throws on ancient WebKit - jQuery.merge( nodes, tmp.childNodes ); - - // Remember the top-level container - tmp = fragment.firstChild; - - // Ensure the created nodes are orphaned (#12392) - tmp.textContent = ""; - } - } - } - - // Remove wrapper from fragment - fragment.textContent = ""; - - i = 0; - while ( ( elem = nodes[ i++ ] ) ) { - - // Skip elements already in the context collection (trac-4087) - if ( selection && jQuery.inArray( elem, selection ) > -1 ) { - if ( ignored ) { - ignored.push( elem ); - } - continue; - } - - attached = isAttached( elem ); - - // Append to fragment - tmp = getAll( fragment.appendChild( elem ), "script" ); - - // Preserve script evaluation history - if ( attached ) { - setGlobalEval( tmp ); - } - - // Capture executables - if ( scripts ) { - j = 0; - while ( ( elem = tmp[ j++ ] ) ) { - if ( rscriptType.test( elem.type || "" ) ) { - scripts.push( elem ); - } - } - } - } - - return fragment; -} - - -var - rkeyEvent = /^key/, - rmouseEvent = /^(?:mouse|pointer|contextmenu|drag|drop)|click/, - rtypenamespace = /^([^.]*)(?:\.(.+)|)/; - -function returnTrue() { - return true; -} - -function returnFalse() { - return false; -} - -// Support: IE <=9 - 11+ -// focus() and blur() are asynchronous, except when they are no-op. -// So expect focus to be synchronous when the element is already active, -// and blur to be synchronous when the element is not already active. -// (focus and blur are always synchronous in other supported browsers, -// this just defines when we can count on it). -function expectSync( elem, type ) { - return ( elem === safeActiveElement() ) === ( type === "focus" ); -} - -// Support: IE <=9 only -// Accessing document.activeElement can throw unexpectedly -// https://bugs.jquery.com/ticket/13393 -function safeActiveElement() { - try { - return document.activeElement; - } catch ( err ) { } -} - -function on( elem, types, selector, data, fn, one ) { - var origFn, type; - - // Types can be a map of types/handlers - if ( typeof types === "object" ) { - - // ( types-Object, selector, data ) - if ( typeof selector !== "string" ) { - - // ( types-Object, data ) - data = data || selector; - selector = undefined; - } - for ( type in types ) { - on( elem, type, selector, data, types[ type ], one ); - } - return elem; - } - - if ( data == null && fn == null ) { - - // ( types, fn ) - fn = selector; - data = selector = undefined; - } else if ( fn == null ) { - if ( typeof selector === "string" ) { - - // ( types, selector, fn ) - fn = data; - data = undefined; - } else { - - // ( types, data, fn ) - fn = data; - data = selector; - selector = undefined; - } - } - if ( fn === false ) { - fn = returnFalse; - } else if ( !fn ) { - return elem; - } - - if ( one === 1 ) { - origFn = fn; - fn = function( event ) { - - // Can use an empty set, since event contains the info - jQuery().off( event ); - return origFn.apply( this, arguments ); - }; - - // Use same guid so caller can remove using origFn - fn.guid = origFn.guid || ( origFn.guid = jQuery.guid++ ); - } - return elem.each( function() { - jQuery.event.add( this, types, fn, data, selector ); - } ); -} - -/* - * Helper functions for managing events -- not part of the public interface. - * Props to Dean Edwards' addEvent library for many of the ideas. - */ -jQuery.event = { - - global: {}, - - add: function( elem, types, handler, data, selector ) { - - var handleObjIn, eventHandle, tmp, - events, t, handleObj, - special, handlers, type, namespaces, origType, - elemData = dataPriv.get( elem ); - - // Only attach events to objects that accept data - if ( !acceptData( elem ) ) { - return; - } - - // Caller can pass in an object of custom data in lieu of the handler - if ( handler.handler ) { - handleObjIn = handler; - handler = handleObjIn.handler; - selector = handleObjIn.selector; - } - - // Ensure that invalid selectors throw exceptions at attach time - // Evaluate against documentElement in case elem is a non-element node (e.g., document) - if ( selector ) { - jQuery.find.matchesSelector( documentElement, selector ); - } - - // Make sure that the handler has a unique ID, used to find/remove it later - if ( !handler.guid ) { - handler.guid = jQuery.guid++; - } - - // Init the element's event structure and main handler, if this is the first - if ( !( events = elemData.events ) ) { - events = elemData.events = Object.create( null ); - } - if ( !( eventHandle = elemData.handle ) ) { - eventHandle = elemData.handle = function( e ) { - - // Discard the second event of a jQuery.event.trigger() and - // when an event is called after a page has unloaded - return typeof jQuery !== "undefined" && jQuery.event.triggered !== e.type ? - jQuery.event.dispatch.apply( elem, arguments ) : undefined; - }; - } - - // Handle multiple events separated by a space - types = ( types || "" ).match( rnothtmlwhite ) || [ "" ]; - t = types.length; - while ( t-- ) { - tmp = rtypenamespace.exec( types[ t ] ) || []; - type = origType = tmp[ 1 ]; - namespaces = ( tmp[ 2 ] || "" ).split( "." ).sort(); - - // There *must* be a type, no attaching namespace-only handlers - if ( !type ) { - continue; - } - - // If event changes its type, use the special event handlers for the changed type - special = jQuery.event.special[ type ] || {}; - - // If selector defined, determine special event api type, otherwise given type - type = ( selector ? special.delegateType : special.bindType ) || type; - - // Update special based on newly reset type - special = jQuery.event.special[ type ] || {}; - - // handleObj is passed to all event handlers - handleObj = jQuery.extend( { - type: type, - origType: origType, - data: data, - handler: handler, - guid: handler.guid, - selector: selector, - needsContext: selector && jQuery.expr.match.needsContext.test( selector ), - namespace: namespaces.join( "." ) - }, handleObjIn ); - - // Init the event handler queue if we're the first - if ( !( handlers = events[ type ] ) ) { - handlers = events[ type ] = []; - handlers.delegateCount = 0; - - // Only use addEventListener if the special events handler returns false - if ( !special.setup || - special.setup.call( elem, data, namespaces, eventHandle ) === false ) { - - if ( elem.addEventListener ) { - elem.addEventListener( type, eventHandle ); - } - } - } - - if ( special.add ) { - special.add.call( elem, handleObj ); - - if ( !handleObj.handler.guid ) { - handleObj.handler.guid = handler.guid; - } - } - - // Add to the element's handler list, delegates in front - if ( selector ) { - handlers.splice( handlers.delegateCount++, 0, handleObj ); - } else { - handlers.push( handleObj ); - } - - // Keep track of which events have ever been used, for event optimization - jQuery.event.global[ type ] = true; - } - - }, - - // Detach an event or set of events from an element - remove: function( elem, types, handler, selector, mappedTypes ) { - - var j, origCount, tmp, - events, t, handleObj, - special, handlers, type, namespaces, origType, - elemData = dataPriv.hasData( elem ) && dataPriv.get( elem ); - - if ( !elemData || !( events = elemData.events ) ) { - return; - } - - // Once for each type.namespace in types; type may be omitted - types = ( types || "" ).match( rnothtmlwhite ) || [ "" ]; - t = types.length; - while ( t-- ) { - tmp = rtypenamespace.exec( types[ t ] ) || []; - type = origType = tmp[ 1 ]; - namespaces = ( tmp[ 2 ] || "" ).split( "." ).sort(); - - // Unbind all events (on this namespace, if provided) for the element - if ( !type ) { - for ( type in events ) { - jQuery.event.remove( elem, type + types[ t ], handler, selector, true ); - } - continue; - } - - special = jQuery.event.special[ type ] || {}; - type = ( selector ? special.delegateType : special.bindType ) || type; - handlers = events[ type ] || []; - tmp = tmp[ 2 ] && - new RegExp( "(^|\\.)" + namespaces.join( "\\.(?:.*\\.|)" ) + "(\\.|$)" ); - - // Remove matching events - origCount = j = handlers.length; - while ( j-- ) { - handleObj = handlers[ j ]; - - if ( ( mappedTypes || origType === handleObj.origType ) && - ( !handler || handler.guid === handleObj.guid ) && - ( !tmp || tmp.test( handleObj.namespace ) ) && - ( !selector || selector === handleObj.selector || - selector === "**" && handleObj.selector ) ) { - handlers.splice( j, 1 ); - - if ( handleObj.selector ) { - handlers.delegateCount--; - } - if ( special.remove ) { - special.remove.call( elem, handleObj ); - } - } - } - - // Remove generic event handler if we removed something and no more handlers exist - // (avoids potential for endless recursion during removal of special event handlers) - if ( origCount && !handlers.length ) { - if ( !special.teardown || - special.teardown.call( elem, namespaces, elemData.handle ) === false ) { - - jQuery.removeEvent( elem, type, elemData.handle ); - } - - delete events[ type ]; - } - } - - // Remove data and the expando if it's no longer used - if ( jQuery.isEmptyObject( events ) ) { - dataPriv.remove( elem, "handle events" ); - } - }, - - dispatch: function( nativeEvent ) { - - var i, j, ret, matched, handleObj, handlerQueue, - args = new Array( arguments.length ), - - // Make a writable jQuery.Event from the native event object - event = jQuery.event.fix( nativeEvent ), - - handlers = ( - dataPriv.get( this, "events" ) || Object.create( null ) - )[ event.type ] || [], - special = jQuery.event.special[ event.type ] || {}; - - // Use the fix-ed jQuery.Event rather than the (read-only) native event - args[ 0 ] = event; - - for ( i = 1; i < arguments.length; i++ ) { - args[ i ] = arguments[ i ]; - } - - event.delegateTarget = this; - - // Call the preDispatch hook for the mapped type, and let it bail if desired - if ( special.preDispatch && special.preDispatch.call( this, event ) === false ) { - return; - } - - // Determine handlers - handlerQueue = jQuery.event.handlers.call( this, event, handlers ); - - // Run delegates first; they may want to stop propagation beneath us - i = 0; - while ( ( matched = handlerQueue[ i++ ] ) && !event.isPropagationStopped() ) { - event.currentTarget = matched.elem; - - j = 0; - while ( ( handleObj = matched.handlers[ j++ ] ) && - !event.isImmediatePropagationStopped() ) { - - // If the event is namespaced, then each handler is only invoked if it is - // specially universal or its namespaces are a superset of the event's. - if ( !event.rnamespace || handleObj.namespace === false || - event.rnamespace.test( handleObj.namespace ) ) { - - event.handleObj = handleObj; - event.data = handleObj.data; - - ret = ( ( jQuery.event.special[ handleObj.origType ] || {} ).handle || - handleObj.handler ).apply( matched.elem, args ); - - if ( ret !== undefined ) { - if ( ( event.result = ret ) === false ) { - event.preventDefault(); - event.stopPropagation(); - } - } - } - } - } - - // Call the postDispatch hook for the mapped type - if ( special.postDispatch ) { - special.postDispatch.call( this, event ); - } - - return event.result; - }, - - handlers: function( event, handlers ) { - var i, handleObj, sel, matchedHandlers, matchedSelectors, - handlerQueue = [], - delegateCount = handlers.delegateCount, - cur = event.target; - - // Find delegate handlers - if ( delegateCount && - - // Support: IE <=9 - // Black-hole SVG instance trees (trac-13180) - cur.nodeType && - - // Support: Firefox <=42 - // Suppress spec-violating clicks indicating a non-primary pointer button (trac-3861) - // https://www.w3.org/TR/DOM-Level-3-Events/#event-type-click - // Support: IE 11 only - // ...but not arrow key "clicks" of radio inputs, which can have `button` -1 (gh-2343) - !( event.type === "click" && event.button >= 1 ) ) { - - for ( ; cur !== this; cur = cur.parentNode || this ) { - - // Don't check non-elements (#13208) - // Don't process clicks on disabled elements (#6911, #8165, #11382, #11764) - if ( cur.nodeType === 1 && !( event.type === "click" && cur.disabled === true ) ) { - matchedHandlers = []; - matchedSelectors = {}; - for ( i = 0; i < delegateCount; i++ ) { - handleObj = handlers[ i ]; - - // Don't conflict with Object.prototype properties (#13203) - sel = handleObj.selector + " "; - - if ( matchedSelectors[ sel ] === undefined ) { - matchedSelectors[ sel ] = handleObj.needsContext ? - jQuery( sel, this ).index( cur ) > -1 : - jQuery.find( sel, this, null, [ cur ] ).length; - } - if ( matchedSelectors[ sel ] ) { - matchedHandlers.push( handleObj ); - } - } - if ( matchedHandlers.length ) { - handlerQueue.push( { elem: cur, handlers: matchedHandlers } ); - } - } - } - } - - // Add the remaining (directly-bound) handlers - cur = this; - if ( delegateCount < handlers.length ) { - handlerQueue.push( { elem: cur, handlers: handlers.slice( delegateCount ) } ); - } - - return handlerQueue; - }, - - addProp: function( name, hook ) { - Object.defineProperty( jQuery.Event.prototype, name, { - enumerable: true, - configurable: true, - - get: isFunction( hook ) ? - function() { - if ( this.originalEvent ) { - return hook( this.originalEvent ); - } - } : - function() { - if ( this.originalEvent ) { - return this.originalEvent[ name ]; - } - }, - - set: function( value ) { - Object.defineProperty( this, name, { - enumerable: true, - configurable: true, - writable: true, - value: value - } ); - } - } ); - }, - - fix: function( originalEvent ) { - return originalEvent[ jQuery.expando ] ? - originalEvent : - new jQuery.Event( originalEvent ); - }, - - special: { - load: { - - // Prevent triggered image.load events from bubbling to window.load - noBubble: true - }, - click: { - - // Utilize native event to ensure correct state for checkable inputs - setup: function( data ) { - - // For mutual compressibility with _default, replace `this` access with a local var. - // `|| data` is dead code meant only to preserve the variable through minification. - var el = this || data; - - // Claim the first handler - if ( rcheckableType.test( el.type ) && - el.click && nodeName( el, "input" ) ) { - - // dataPriv.set( el, "click", ... ) - leverageNative( el, "click", returnTrue ); - } - - // Return false to allow normal processing in the caller - return false; - }, - trigger: function( data ) { - - // For mutual compressibility with _default, replace `this` access with a local var. - // `|| data` is dead code meant only to preserve the variable through minification. - var el = this || data; - - // Force setup before triggering a click - if ( rcheckableType.test( el.type ) && - el.click && nodeName( el, "input" ) ) { - - leverageNative( el, "click" ); - } - - // Return non-false to allow normal event-path propagation - return true; - }, - - // For cross-browser consistency, suppress native .click() on links - // Also prevent it if we're currently inside a leveraged native-event stack - _default: function( event ) { - var target = event.target; - return rcheckableType.test( target.type ) && - target.click && nodeName( target, "input" ) && - dataPriv.get( target, "click" ) || - nodeName( target, "a" ); - } - }, - - beforeunload: { - postDispatch: function( event ) { - - // Support: Firefox 20+ - // Firefox doesn't alert if the returnValue field is not set. - if ( event.result !== undefined && event.originalEvent ) { - event.originalEvent.returnValue = event.result; - } - } - } - } -}; - -// Ensure the presence of an event listener that handles manually-triggered -// synthetic events by interrupting progress until reinvoked in response to -// *native* events that it fires directly, ensuring that state changes have -// already occurred before other listeners are invoked. -function leverageNative( el, type, expectSync ) { - - // Missing expectSync indicates a trigger call, which must force setup through jQuery.event.add - if ( !expectSync ) { - if ( dataPriv.get( el, type ) === undefined ) { - jQuery.event.add( el, type, returnTrue ); - } - return; - } - - // Register the controller as a special universal handler for all event namespaces - dataPriv.set( el, type, false ); - jQuery.event.add( el, type, { - namespace: false, - handler: function( event ) { - var notAsync, result, - saved = dataPriv.get( this, type ); - - if ( ( event.isTrigger & 1 ) && this[ type ] ) { - - // Interrupt processing of the outer synthetic .trigger()ed event - // Saved data should be false in such cases, but might be a leftover capture object - // from an async native handler (gh-4350) - if ( !saved.length ) { - - // Store arguments for use when handling the inner native event - // There will always be at least one argument (an event object), so this array - // will not be confused with a leftover capture object. - saved = slice.call( arguments ); - dataPriv.set( this, type, saved ); - - // Trigger the native event and capture its result - // Support: IE <=9 - 11+ - // focus() and blur() are asynchronous - notAsync = expectSync( this, type ); - this[ type ](); - result = dataPriv.get( this, type ); - if ( saved !== result || notAsync ) { - dataPriv.set( this, type, false ); - } else { - result = {}; - } - if ( saved !== result ) { - - // Cancel the outer synthetic event - event.stopImmediatePropagation(); - event.preventDefault(); - return result.value; - } - - // If this is an inner synthetic event for an event with a bubbling surrogate - // (focus or blur), assume that the surrogate already propagated from triggering the - // native event and prevent that from happening again here. - // This technically gets the ordering wrong w.r.t. to `.trigger()` (in which the - // bubbling surrogate propagates *after* the non-bubbling base), but that seems - // less bad than duplication. - } else if ( ( jQuery.event.special[ type ] || {} ).delegateType ) { - event.stopPropagation(); - } - - // If this is a native event triggered above, everything is now in order - // Fire an inner synthetic event with the original arguments - } else if ( saved.length ) { - - // ...and capture the result - dataPriv.set( this, type, { - value: jQuery.event.trigger( - - // Support: IE <=9 - 11+ - // Extend with the prototype to reset the above stopImmediatePropagation() - jQuery.extend( saved[ 0 ], jQuery.Event.prototype ), - saved.slice( 1 ), - this - ) - } ); - - // Abort handling of the native event - event.stopImmediatePropagation(); - } - } - } ); -} - -jQuery.removeEvent = function( elem, type, handle ) { - - // This "if" is needed for plain objects - if ( elem.removeEventListener ) { - elem.removeEventListener( type, handle ); - } -}; - -jQuery.Event = function( src, props ) { - - // Allow instantiation without the 'new' keyword - if ( !( this instanceof jQuery.Event ) ) { - return new jQuery.Event( src, props ); - } - - // Event object - if ( src && src.type ) { - this.originalEvent = src; - this.type = src.type; - - // Events bubbling up the document may have been marked as prevented - // by a handler lower down the tree; reflect the correct value. - this.isDefaultPrevented = src.defaultPrevented || - src.defaultPrevented === undefined && - - // Support: Android <=2.3 only - src.returnValue === false ? - returnTrue : - returnFalse; - - // Create target properties - // Support: Safari <=6 - 7 only - // Target should not be a text node (#504, #13143) - this.target = ( src.target && src.target.nodeType === 3 ) ? - src.target.parentNode : - src.target; - - this.currentTarget = src.currentTarget; - this.relatedTarget = src.relatedTarget; - - // Event type - } else { - this.type = src; - } - - // Put explicitly provided properties onto the event object - if ( props ) { - jQuery.extend( this, props ); - } - - // Create a timestamp if incoming event doesn't have one - this.timeStamp = src && src.timeStamp || Date.now(); - - // Mark it as fixed - this[ jQuery.expando ] = true; -}; - -// jQuery.Event is based on DOM3 Events as specified by the ECMAScript Language Binding -// https://www.w3.org/TR/2003/WD-DOM-Level-3-Events-20030331/ecma-script-binding.html -jQuery.Event.prototype = { - constructor: jQuery.Event, - isDefaultPrevented: returnFalse, - isPropagationStopped: returnFalse, - isImmediatePropagationStopped: returnFalse, - isSimulated: false, - - preventDefault: function() { - var e = this.originalEvent; - - this.isDefaultPrevented = returnTrue; - - if ( e && !this.isSimulated ) { - e.preventDefault(); - } - }, - stopPropagation: function() { - var e = this.originalEvent; - - this.isPropagationStopped = returnTrue; - - if ( e && !this.isSimulated ) { - e.stopPropagation(); - } - }, - stopImmediatePropagation: function() { - var e = this.originalEvent; - - this.isImmediatePropagationStopped = returnTrue; - - if ( e && !this.isSimulated ) { - e.stopImmediatePropagation(); - } - - this.stopPropagation(); - } -}; - -// Includes all common event props including KeyEvent and MouseEvent specific props -jQuery.each( { - altKey: true, - bubbles: true, - cancelable: true, - changedTouches: true, - ctrlKey: true, - detail: true, - eventPhase: true, - metaKey: true, - pageX: true, - pageY: true, - shiftKey: true, - view: true, - "char": true, - code: true, - charCode: true, - key: true, - keyCode: true, - button: true, - buttons: true, - clientX: true, - clientY: true, - offsetX: true, - offsetY: true, - pointerId: true, - pointerType: true, - screenX: true, - screenY: true, - targetTouches: true, - toElement: true, - touches: true, - - which: function( event ) { - var button = event.button; - - // Add which for key events - if ( event.which == null && rkeyEvent.test( event.type ) ) { - return event.charCode != null ? event.charCode : event.keyCode; - } - - // Add which for click: 1 === left; 2 === middle; 3 === right - if ( !event.which && button !== undefined && rmouseEvent.test( event.type ) ) { - if ( button & 1 ) { - return 1; - } - - if ( button & 2 ) { - return 3; - } - - if ( button & 4 ) { - return 2; - } - - return 0; - } - - return event.which; - } -}, jQuery.event.addProp ); - -jQuery.each( { focus: "focusin", blur: "focusout" }, function( type, delegateType ) { - jQuery.event.special[ type ] = { - - // Utilize native event if possible so blur/focus sequence is correct - setup: function() { - - // Claim the first handler - // dataPriv.set( this, "focus", ... ) - // dataPriv.set( this, "blur", ... ) - leverageNative( this, type, expectSync ); - - // Return false to allow normal processing in the caller - return false; - }, - trigger: function() { - - // Force setup before trigger - leverageNative( this, type ); - - // Return non-false to allow normal event-path propagation - return true; - }, - - delegateType: delegateType - }; -} ); - -// Create mouseenter/leave events using mouseover/out and event-time checks -// so that event delegation works in jQuery. -// Do the same for pointerenter/pointerleave and pointerover/pointerout -// -// Support: Safari 7 only -// Safari sends mouseenter too often; see: -// https://bugs.chromium.org/p/chromium/issues/detail?id=470258 -// for the description of the bug (it existed in older Chrome versions as well). -jQuery.each( { - mouseenter: "mouseover", - mouseleave: "mouseout", - pointerenter: "pointerover", - pointerleave: "pointerout" -}, function( orig, fix ) { - jQuery.event.special[ orig ] = { - delegateType: fix, - bindType: fix, - - handle: function( event ) { - var ret, - target = this, - related = event.relatedTarget, - handleObj = event.handleObj; - - // For mouseenter/leave call the handler if related is outside the target. - // NB: No relatedTarget if the mouse left/entered the browser window - if ( !related || ( related !== target && !jQuery.contains( target, related ) ) ) { - event.type = handleObj.origType; - ret = handleObj.handler.apply( this, arguments ); - event.type = fix; - } - return ret; - } - }; -} ); - -jQuery.fn.extend( { - - on: function( types, selector, data, fn ) { - return on( this, types, selector, data, fn ); - }, - one: function( types, selector, data, fn ) { - return on( this, types, selector, data, fn, 1 ); - }, - off: function( types, selector, fn ) { - var handleObj, type; - if ( types && types.preventDefault && types.handleObj ) { - - // ( event ) dispatched jQuery.Event - handleObj = types.handleObj; - jQuery( types.delegateTarget ).off( - handleObj.namespace ? - handleObj.origType + "." + handleObj.namespace : - handleObj.origType, - handleObj.selector, - handleObj.handler - ); - return this; - } - if ( typeof types === "object" ) { - - // ( types-object [, selector] ) - for ( type in types ) { - this.off( type, selector, types[ type ] ); - } - return this; - } - if ( selector === false || typeof selector === "function" ) { - - // ( types [, fn] ) - fn = selector; - selector = undefined; - } - if ( fn === false ) { - fn = returnFalse; - } - return this.each( function() { - jQuery.event.remove( this, types, fn, selector ); - } ); - } -} ); - - -var - - // Support: IE <=10 - 11, Edge 12 - 13 only - // In IE/Edge using regex groups here causes severe slowdowns. - // See https://connect.microsoft.com/IE/feedback/details/1736512/ - rnoInnerhtml = /\s*$/g; - -// Prefer a tbody over its parent table for containing new rows -function manipulationTarget( elem, content ) { - if ( nodeName( elem, "table" ) && - nodeName( content.nodeType !== 11 ? content : content.firstChild, "tr" ) ) { - - return jQuery( elem ).children( "tbody" )[ 0 ] || elem; - } - - return elem; -} - -// Replace/restore the type attribute of script elements for safe DOM manipulation -function disableScript( elem ) { - elem.type = ( elem.getAttribute( "type" ) !== null ) + "/" + elem.type; - return elem; -} -function restoreScript( elem ) { - if ( ( elem.type || "" ).slice( 0, 5 ) === "true/" ) { - elem.type = elem.type.slice( 5 ); - } else { - elem.removeAttribute( "type" ); - } - - return elem; -} - -function cloneCopyEvent( src, dest ) { - var i, l, type, pdataOld, udataOld, udataCur, events; - - if ( dest.nodeType !== 1 ) { - return; - } - - // 1. Copy private data: events, handlers, etc. - if ( dataPriv.hasData( src ) ) { - pdataOld = dataPriv.get( src ); - events = pdataOld.events; - - if ( events ) { - dataPriv.remove( dest, "handle events" ); - - for ( type in events ) { - for ( i = 0, l = events[ type ].length; i < l; i++ ) { - jQuery.event.add( dest, type, events[ type ][ i ] ); - } - } - } - } - - // 2. Copy user data - if ( dataUser.hasData( src ) ) { - udataOld = dataUser.access( src ); - udataCur = jQuery.extend( {}, udataOld ); - - dataUser.set( dest, udataCur ); - } -} - -// Fix IE bugs, see support tests -function fixInput( src, dest ) { - var nodeName = dest.nodeName.toLowerCase(); - - // Fails to persist the checked state of a cloned checkbox or radio button. - if ( nodeName === "input" && rcheckableType.test( src.type ) ) { - dest.checked = src.checked; - - // Fails to return the selected option to the default selected state when cloning options - } else if ( nodeName === "input" || nodeName === "textarea" ) { - dest.defaultValue = src.defaultValue; - } -} - -function domManip( collection, args, callback, ignored ) { - - // Flatten any nested arrays - args = flat( args ); - - var fragment, first, scripts, hasScripts, node, doc, - i = 0, - l = collection.length, - iNoClone = l - 1, - value = args[ 0 ], - valueIsFunction = isFunction( value ); - - // We can't cloneNode fragments that contain checked, in WebKit - if ( valueIsFunction || - ( l > 1 && typeof value === "string" && - !support.checkClone && rchecked.test( value ) ) ) { - return collection.each( function( index ) { - var self = collection.eq( index ); - if ( valueIsFunction ) { - args[ 0 ] = value.call( this, index, self.html() ); - } - domManip( self, args, callback, ignored ); - } ); - } - - if ( l ) { - fragment = buildFragment( args, collection[ 0 ].ownerDocument, false, collection, ignored ); - first = fragment.firstChild; - - if ( fragment.childNodes.length === 1 ) { - fragment = first; - } - - // Require either new content or an interest in ignored elements to invoke the callback - if ( first || ignored ) { - scripts = jQuery.map( getAll( fragment, "script" ), disableScript ); - hasScripts = scripts.length; - - // Use the original fragment for the last item - // instead of the first because it can end up - // being emptied incorrectly in certain situations (#8070). - for ( ; i < l; i++ ) { - node = fragment; - - if ( i !== iNoClone ) { - node = jQuery.clone( node, true, true ); - - // Keep references to cloned scripts for later restoration - if ( hasScripts ) { - - // Support: Android <=4.0 only, PhantomJS 1 only - // push.apply(_, arraylike) throws on ancient WebKit - jQuery.merge( scripts, getAll( node, "script" ) ); - } - } - - callback.call( collection[ i ], node, i ); - } - - if ( hasScripts ) { - doc = scripts[ scripts.length - 1 ].ownerDocument; - - // Reenable scripts - jQuery.map( scripts, restoreScript ); - - // Evaluate executable scripts on first document insertion - for ( i = 0; i < hasScripts; i++ ) { - node = scripts[ i ]; - if ( rscriptType.test( node.type || "" ) && - !dataPriv.access( node, "globalEval" ) && - jQuery.contains( doc, node ) ) { - - if ( node.src && ( node.type || "" ).toLowerCase() !== "module" ) { - - // Optional AJAX dependency, but won't run scripts if not present - if ( jQuery._evalUrl && !node.noModule ) { - jQuery._evalUrl( node.src, { - nonce: node.nonce || node.getAttribute( "nonce" ) - }, doc ); - } - } else { - DOMEval( node.textContent.replace( rcleanScript, "" ), node, doc ); - } - } - } - } - } - } - - return collection; -} - -function remove( elem, selector, keepData ) { - var node, - nodes = selector ? jQuery.filter( selector, elem ) : elem, - i = 0; - - for ( ; ( node = nodes[ i ] ) != null; i++ ) { - if ( !keepData && node.nodeType === 1 ) { - jQuery.cleanData( getAll( node ) ); - } - - if ( node.parentNode ) { - if ( keepData && isAttached( node ) ) { - setGlobalEval( getAll( node, "script" ) ); - } - node.parentNode.removeChild( node ); - } - } - - return elem; -} - -jQuery.extend( { - htmlPrefilter: function( html ) { - return html; - }, - - clone: function( elem, dataAndEvents, deepDataAndEvents ) { - var i, l, srcElements, destElements, - clone = elem.cloneNode( true ), - inPage = isAttached( elem ); - - // Fix IE cloning issues - if ( !support.noCloneChecked && ( elem.nodeType === 1 || elem.nodeType === 11 ) && - !jQuery.isXMLDoc( elem ) ) { - - // We eschew Sizzle here for performance reasons: https://jsperf.com/getall-vs-sizzle/2 - destElements = getAll( clone ); - srcElements = getAll( elem ); - - for ( i = 0, l = srcElements.length; i < l; i++ ) { - fixInput( srcElements[ i ], destElements[ i ] ); - } - } - - // Copy the events from the original to the clone - if ( dataAndEvents ) { - if ( deepDataAndEvents ) { - srcElements = srcElements || getAll( elem ); - destElements = destElements || getAll( clone ); - - for ( i = 0, l = srcElements.length; i < l; i++ ) { - cloneCopyEvent( srcElements[ i ], destElements[ i ] ); - } - } else { - cloneCopyEvent( elem, clone ); - } - } - - // Preserve script evaluation history - destElements = getAll( clone, "script" ); - if ( destElements.length > 0 ) { - setGlobalEval( destElements, !inPage && getAll( elem, "script" ) ); - } - - // Return the cloned set - return clone; - }, - - cleanData: function( elems ) { - var data, elem, type, - special = jQuery.event.special, - i = 0; - - for ( ; ( elem = elems[ i ] ) !== undefined; i++ ) { - if ( acceptData( elem ) ) { - if ( ( data = elem[ dataPriv.expando ] ) ) { - if ( data.events ) { - for ( type in data.events ) { - if ( special[ type ] ) { - jQuery.event.remove( elem, type ); - - // This is a shortcut to avoid jQuery.event.remove's overhead - } else { - jQuery.removeEvent( elem, type, data.handle ); - } - } - } - - // Support: Chrome <=35 - 45+ - // Assign undefined instead of using delete, see Data#remove - elem[ dataPriv.expando ] = undefined; - } - if ( elem[ dataUser.expando ] ) { - - // Support: Chrome <=35 - 45+ - // Assign undefined instead of using delete, see Data#remove - elem[ dataUser.expando ] = undefined; - } - } - } - } -} ); - -jQuery.fn.extend( { - detach: function( selector ) { - return remove( this, selector, true ); - }, - - remove: function( selector ) { - return remove( this, selector ); - }, - - text: function( value ) { - return access( this, function( value ) { - return value === undefined ? - jQuery.text( this ) : - this.empty().each( function() { - if ( this.nodeType === 1 || this.nodeType === 11 || this.nodeType === 9 ) { - this.textContent = value; - } - } ); - }, null, value, arguments.length ); - }, - - append: function() { - return domManip( this, arguments, function( elem ) { - if ( this.nodeType === 1 || this.nodeType === 11 || this.nodeType === 9 ) { - var target = manipulationTarget( this, elem ); - target.appendChild( elem ); - } - } ); - }, - - prepend: function() { - return domManip( this, arguments, function( elem ) { - if ( this.nodeType === 1 || this.nodeType === 11 || this.nodeType === 9 ) { - var target = manipulationTarget( this, elem ); - target.insertBefore( elem, target.firstChild ); - } - } ); - }, - - before: function() { - return domManip( this, arguments, function( elem ) { - if ( this.parentNode ) { - this.parentNode.insertBefore( elem, this ); - } - } ); - }, - - after: function() { - return domManip( this, arguments, function( elem ) { - if ( this.parentNode ) { - this.parentNode.insertBefore( elem, this.nextSibling ); - } - } ); - }, - - empty: function() { - var elem, - i = 0; - - for ( ; ( elem = this[ i ] ) != null; i++ ) { - if ( elem.nodeType === 1 ) { - - // Prevent memory leaks - jQuery.cleanData( getAll( elem, false ) ); - - // Remove any remaining nodes - elem.textContent = ""; - } - } - - return this; - }, - - clone: function( dataAndEvents, deepDataAndEvents ) { - dataAndEvents = dataAndEvents == null ? false : dataAndEvents; - deepDataAndEvents = deepDataAndEvents == null ? dataAndEvents : deepDataAndEvents; - - return this.map( function() { - return jQuery.clone( this, dataAndEvents, deepDataAndEvents ); - } ); - }, - - html: function( value ) { - return access( this, function( value ) { - var elem = this[ 0 ] || {}, - i = 0, - l = this.length; - - if ( value === undefined && elem.nodeType === 1 ) { - return elem.innerHTML; - } - - // See if we can take a shortcut and just use innerHTML - if ( typeof value === "string" && !rnoInnerhtml.test( value ) && - !wrapMap[ ( rtagName.exec( value ) || [ "", "" ] )[ 1 ].toLowerCase() ] ) { - - value = jQuery.htmlPrefilter( value ); - - try { - for ( ; i < l; i++ ) { - elem = this[ i ] || {}; - - // Remove element nodes and prevent memory leaks - if ( elem.nodeType === 1 ) { - jQuery.cleanData( getAll( elem, false ) ); - elem.innerHTML = value; - } - } - - elem = 0; - - // If using innerHTML throws an exception, use the fallback method - } catch ( e ) {} - } - - if ( elem ) { - this.empty().append( value ); - } - }, null, value, arguments.length ); - }, - - replaceWith: function() { - var ignored = []; - - // Make the changes, replacing each non-ignored context element with the new content - return domManip( this, arguments, function( elem ) { - var parent = this.parentNode; - - if ( jQuery.inArray( this, ignored ) < 0 ) { - jQuery.cleanData( getAll( this ) ); - if ( parent ) { - parent.replaceChild( elem, this ); - } - } - - // Force callback invocation - }, ignored ); - } -} ); - -jQuery.each( { - appendTo: "append", - prependTo: "prepend", - insertBefore: "before", - insertAfter: "after", - replaceAll: "replaceWith" -}, function( name, original ) { - jQuery.fn[ name ] = function( selector ) { - var elems, - ret = [], - insert = jQuery( selector ), - last = insert.length - 1, - i = 0; - - for ( ; i <= last; i++ ) { - elems = i === last ? this : this.clone( true ); - jQuery( insert[ i ] )[ original ]( elems ); - - // Support: Android <=4.0 only, PhantomJS 1 only - // .get() because push.apply(_, arraylike) throws on ancient WebKit - push.apply( ret, elems.get() ); - } - - return this.pushStack( ret ); - }; -} ); -var rnumnonpx = new RegExp( "^(" + pnum + ")(?!px)[a-z%]+$", "i" ); - -var getStyles = function( elem ) { - - // Support: IE <=11 only, Firefox <=30 (#15098, #14150) - // IE throws on elements created in popups - // FF meanwhile throws on frame elements through "defaultView.getComputedStyle" - var view = elem.ownerDocument.defaultView; - - if ( !view || !view.opener ) { - view = window; - } - - return view.getComputedStyle( elem ); - }; - -var swap = function( elem, options, callback ) { - var ret, name, - old = {}; - - // Remember the old values, and insert the new ones - for ( name in options ) { - old[ name ] = elem.style[ name ]; - elem.style[ name ] = options[ name ]; - } - - ret = callback.call( elem ); - - // Revert the old values - for ( name in options ) { - elem.style[ name ] = old[ name ]; - } - - return ret; -}; - - -var rboxStyle = new RegExp( cssExpand.join( "|" ), "i" ); - - - -( function() { - - // Executing both pixelPosition & boxSizingReliable tests require only one layout - // so they're executed at the same time to save the second computation. - function computeStyleTests() { - - // This is a singleton, we need to execute it only once - if ( !div ) { - return; - } - - container.style.cssText = "position:absolute;left:-11111px;width:60px;" + - "margin-top:1px;padding:0;border:0"; - div.style.cssText = - "position:relative;display:block;box-sizing:border-box;overflow:scroll;" + - "margin:auto;border:1px;padding:1px;" + - "width:60%;top:1%"; - documentElement.appendChild( container ).appendChild( div ); - - var divStyle = window.getComputedStyle( div ); - pixelPositionVal = divStyle.top !== "1%"; - - // Support: Android 4.0 - 4.3 only, Firefox <=3 - 44 - reliableMarginLeftVal = roundPixelMeasures( divStyle.marginLeft ) === 12; - - // Support: Android 4.0 - 4.3 only, Safari <=9.1 - 10.1, iOS <=7.0 - 9.3 - // Some styles come back with percentage values, even though they shouldn't - div.style.right = "60%"; - pixelBoxStylesVal = roundPixelMeasures( divStyle.right ) === 36; - - // Support: IE 9 - 11 only - // Detect misreporting of content dimensions for box-sizing:border-box elements - boxSizingReliableVal = roundPixelMeasures( divStyle.width ) === 36; - - // Support: IE 9 only - // Detect overflow:scroll screwiness (gh-3699) - // Support: Chrome <=64 - // Don't get tricked when zoom affects offsetWidth (gh-4029) - div.style.position = "absolute"; - scrollboxSizeVal = roundPixelMeasures( div.offsetWidth / 3 ) === 12; - - documentElement.removeChild( container ); - - // Nullify the div so it wouldn't be stored in the memory and - // it will also be a sign that checks already performed - div = null; - } - - function roundPixelMeasures( measure ) { - return Math.round( parseFloat( measure ) ); - } - - var pixelPositionVal, boxSizingReliableVal, scrollboxSizeVal, pixelBoxStylesVal, - reliableTrDimensionsVal, reliableMarginLeftVal, - container = document.createElement( "div" ), - div = document.createElement( "div" ); - - // Finish early in limited (non-browser) environments - if ( !div.style ) { - return; - } - - // Support: IE <=9 - 11 only - // Style of cloned element affects source element cloned (#8908) - div.style.backgroundClip = "content-box"; - div.cloneNode( true ).style.backgroundClip = ""; - support.clearCloneStyle = div.style.backgroundClip === "content-box"; - - jQuery.extend( support, { - boxSizingReliable: function() { - computeStyleTests(); - return boxSizingReliableVal; - }, - pixelBoxStyles: function() { - computeStyleTests(); - return pixelBoxStylesVal; - }, - pixelPosition: function() { - computeStyleTests(); - return pixelPositionVal; - }, - reliableMarginLeft: function() { - computeStyleTests(); - return reliableMarginLeftVal; - }, - scrollboxSize: function() { - computeStyleTests(); - return scrollboxSizeVal; - }, - - // Support: IE 9 - 11+, Edge 15 - 18+ - // IE/Edge misreport `getComputedStyle` of table rows with width/height - // set in CSS while `offset*` properties report correct values. - // Behavior in IE 9 is more subtle than in newer versions & it passes - // some versions of this test; make sure not to make it pass there! - reliableTrDimensions: function() { - var table, tr, trChild, trStyle; - if ( reliableTrDimensionsVal == null ) { - table = document.createElement( "table" ); - tr = document.createElement( "tr" ); - trChild = document.createElement( "div" ); - - table.style.cssText = "position:absolute;left:-11111px"; - tr.style.height = "1px"; - trChild.style.height = "9px"; - - documentElement - .appendChild( table ) - .appendChild( tr ) - .appendChild( trChild ); - - trStyle = window.getComputedStyle( tr ); - reliableTrDimensionsVal = parseInt( trStyle.height ) > 3; - - documentElement.removeChild( table ); - } - return reliableTrDimensionsVal; - } - } ); -} )(); - - -function curCSS( elem, name, computed ) { - var width, minWidth, maxWidth, ret, - - // Support: Firefox 51+ - // Retrieving style before computed somehow - // fixes an issue with getting wrong values - // on detached elements - style = elem.style; - - computed = computed || getStyles( elem ); - - // getPropertyValue is needed for: - // .css('filter') (IE 9 only, #12537) - // .css('--customProperty) (#3144) - if ( computed ) { - ret = computed.getPropertyValue( name ) || computed[ name ]; - - if ( ret === "" && !isAttached( elem ) ) { - ret = jQuery.style( elem, name ); - } - - // A tribute to the "awesome hack by Dean Edwards" - // Android Browser returns percentage for some values, - // but width seems to be reliably pixels. - // This is against the CSSOM draft spec: - // https://drafts.csswg.org/cssom/#resolved-values - if ( !support.pixelBoxStyles() && rnumnonpx.test( ret ) && rboxStyle.test( name ) ) { - - // Remember the original values - width = style.width; - minWidth = style.minWidth; - maxWidth = style.maxWidth; - - // Put in the new values to get a computed value out - style.minWidth = style.maxWidth = style.width = ret; - ret = computed.width; - - // Revert the changed values - style.width = width; - style.minWidth = minWidth; - style.maxWidth = maxWidth; - } - } - - return ret !== undefined ? - - // Support: IE <=9 - 11 only - // IE returns zIndex value as an integer. - ret + "" : - ret; -} - - -function addGetHookIf( conditionFn, hookFn ) { - - // Define the hook, we'll check on the first run if it's really needed. - return { - get: function() { - if ( conditionFn() ) { - - // Hook not needed (or it's not possible to use it due - // to missing dependency), remove it. - delete this.get; - return; - } - - // Hook needed; redefine it so that the support test is not executed again. - return ( this.get = hookFn ).apply( this, arguments ); - } - }; -} - - -var cssPrefixes = [ "Webkit", "Moz", "ms" ], - emptyStyle = document.createElement( "div" ).style, - vendorProps = {}; - -// Return a vendor-prefixed property or undefined -function vendorPropName( name ) { - - // Check for vendor prefixed names - var capName = name[ 0 ].toUpperCase() + name.slice( 1 ), - i = cssPrefixes.length; - - while ( i-- ) { - name = cssPrefixes[ i ] + capName; - if ( name in emptyStyle ) { - return name; - } - } -} - -// Return a potentially-mapped jQuery.cssProps or vendor prefixed property -function finalPropName( name ) { - var final = jQuery.cssProps[ name ] || vendorProps[ name ]; - - if ( final ) { - return final; - } - if ( name in emptyStyle ) { - return name; - } - return vendorProps[ name ] = vendorPropName( name ) || name; -} - - -var - - // Swappable if display is none or starts with table - // except "table", "table-cell", or "table-caption" - // See here for display values: https://developer.mozilla.org/en-US/docs/CSS/display - rdisplayswap = /^(none|table(?!-c[ea]).+)/, - rcustomProp = /^--/, - cssShow = { position: "absolute", visibility: "hidden", display: "block" }, - cssNormalTransform = { - letterSpacing: "0", - fontWeight: "400" - }; - -function setPositiveNumber( _elem, value, subtract ) { - - // Any relative (+/-) values have already been - // normalized at this point - var matches = rcssNum.exec( value ); - return matches ? - - // Guard against undefined "subtract", e.g., when used as in cssHooks - Math.max( 0, matches[ 2 ] - ( subtract || 0 ) ) + ( matches[ 3 ] || "px" ) : - value; -} - -function boxModelAdjustment( elem, dimension, box, isBorderBox, styles, computedVal ) { - var i = dimension === "width" ? 1 : 0, - extra = 0, - delta = 0; - - // Adjustment may not be necessary - if ( box === ( isBorderBox ? "border" : "content" ) ) { - return 0; - } - - for ( ; i < 4; i += 2 ) { - - // Both box models exclude margin - if ( box === "margin" ) { - delta += jQuery.css( elem, box + cssExpand[ i ], true, styles ); - } - - // If we get here with a content-box, we're seeking "padding" or "border" or "margin" - if ( !isBorderBox ) { - - // Add padding - delta += jQuery.css( elem, "padding" + cssExpand[ i ], true, styles ); - - // For "border" or "margin", add border - if ( box !== "padding" ) { - delta += jQuery.css( elem, "border" + cssExpand[ i ] + "Width", true, styles ); - - // But still keep track of it otherwise - } else { - extra += jQuery.css( elem, "border" + cssExpand[ i ] + "Width", true, styles ); - } - - // If we get here with a border-box (content + padding + border), we're seeking "content" or - // "padding" or "margin" - } else { - - // For "content", subtract padding - if ( box === "content" ) { - delta -= jQuery.css( elem, "padding" + cssExpand[ i ], true, styles ); - } - - // For "content" or "padding", subtract border - if ( box !== "margin" ) { - delta -= jQuery.css( elem, "border" + cssExpand[ i ] + "Width", true, styles ); - } - } - } - - // Account for positive content-box scroll gutter when requested by providing computedVal - if ( !isBorderBox && computedVal >= 0 ) { - - // offsetWidth/offsetHeight is a rounded sum of content, padding, scroll gutter, and border - // Assuming integer scroll gutter, subtract the rest and round down - delta += Math.max( 0, Math.ceil( - elem[ "offset" + dimension[ 0 ].toUpperCase() + dimension.slice( 1 ) ] - - computedVal - - delta - - extra - - 0.5 - - // If offsetWidth/offsetHeight is unknown, then we can't determine content-box scroll gutter - // Use an explicit zero to avoid NaN (gh-3964) - ) ) || 0; - } - - return delta; -} - -function getWidthOrHeight( elem, dimension, extra ) { - - // Start with computed style - var styles = getStyles( elem ), - - // To avoid forcing a reflow, only fetch boxSizing if we need it (gh-4322). - // Fake content-box until we know it's needed to know the true value. - boxSizingNeeded = !support.boxSizingReliable() || extra, - isBorderBox = boxSizingNeeded && - jQuery.css( elem, "boxSizing", false, styles ) === "border-box", - valueIsBorderBox = isBorderBox, - - val = curCSS( elem, dimension, styles ), - offsetProp = "offset" + dimension[ 0 ].toUpperCase() + dimension.slice( 1 ); - - // Support: Firefox <=54 - // Return a confounding non-pixel value or feign ignorance, as appropriate. - if ( rnumnonpx.test( val ) ) { - if ( !extra ) { - return val; - } - val = "auto"; - } - - - // Support: IE 9 - 11 only - // Use offsetWidth/offsetHeight for when box sizing is unreliable. - // In those cases, the computed value can be trusted to be border-box. - if ( ( !support.boxSizingReliable() && isBorderBox || - - // Support: IE 10 - 11+, Edge 15 - 18+ - // IE/Edge misreport `getComputedStyle` of table rows with width/height - // set in CSS while `offset*` properties report correct values. - // Interestingly, in some cases IE 9 doesn't suffer from this issue. - !support.reliableTrDimensions() && nodeName( elem, "tr" ) || - - // Fall back to offsetWidth/offsetHeight when value is "auto" - // This happens for inline elements with no explicit setting (gh-3571) - val === "auto" || - - // Support: Android <=4.1 - 4.3 only - // Also use offsetWidth/offsetHeight for misreported inline dimensions (gh-3602) - !parseFloat( val ) && jQuery.css( elem, "display", false, styles ) === "inline" ) && - - // Make sure the element is visible & connected - elem.getClientRects().length ) { - - isBorderBox = jQuery.css( elem, "boxSizing", false, styles ) === "border-box"; - - // Where available, offsetWidth/offsetHeight approximate border box dimensions. - // Where not available (e.g., SVG), assume unreliable box-sizing and interpret the - // retrieved value as a content box dimension. - valueIsBorderBox = offsetProp in elem; - if ( valueIsBorderBox ) { - val = elem[ offsetProp ]; - } - } - - // Normalize "" and auto - val = parseFloat( val ) || 0; - - // Adjust for the element's box model - return ( val + - boxModelAdjustment( - elem, - dimension, - extra || ( isBorderBox ? "border" : "content" ), - valueIsBorderBox, - styles, - - // Provide the current computed size to request scroll gutter calculation (gh-3589) - val - ) - ) + "px"; -} - -jQuery.extend( { - - // Add in style property hooks for overriding the default - // behavior of getting and setting a style property - cssHooks: { - opacity: { - get: function( elem, computed ) { - if ( computed ) { - - // We should always get a number back from opacity - var ret = curCSS( elem, "opacity" ); - return ret === "" ? "1" : ret; - } - } - } - }, - - // Don't automatically add "px" to these possibly-unitless properties - cssNumber: { - "animationIterationCount": true, - "columnCount": true, - "fillOpacity": true, - "flexGrow": true, - "flexShrink": true, - "fontWeight": true, - "gridArea": true, - "gridColumn": true, - "gridColumnEnd": true, - "gridColumnStart": true, - "gridRow": true, - "gridRowEnd": true, - "gridRowStart": true, - "lineHeight": true, - "opacity": true, - "order": true, - "orphans": true, - "widows": true, - "zIndex": true, - "zoom": true - }, - - // Add in properties whose names you wish to fix before - // setting or getting the value - cssProps: {}, - - // Get and set the style property on a DOM Node - style: function( elem, name, value, extra ) { - - // Don't set styles on text and comment nodes - if ( !elem || elem.nodeType === 3 || elem.nodeType === 8 || !elem.style ) { - return; - } - - // Make sure that we're working with the right name - var ret, type, hooks, - origName = camelCase( name ), - isCustomProp = rcustomProp.test( name ), - style = elem.style; - - // Make sure that we're working with the right name. We don't - // want to query the value if it is a CSS custom property - // since they are user-defined. - if ( !isCustomProp ) { - name = finalPropName( origName ); - } - - // Gets hook for the prefixed version, then unprefixed version - hooks = jQuery.cssHooks[ name ] || jQuery.cssHooks[ origName ]; - - // Check if we're setting a value - if ( value !== undefined ) { - type = typeof value; - - // Convert "+=" or "-=" to relative numbers (#7345) - if ( type === "string" && ( ret = rcssNum.exec( value ) ) && ret[ 1 ] ) { - value = adjustCSS( elem, name, ret ); - - // Fixes bug #9237 - type = "number"; - } - - // Make sure that null and NaN values aren't set (#7116) - if ( value == null || value !== value ) { - return; - } - - // If a number was passed in, add the unit (except for certain CSS properties) - // The isCustomProp check can be removed in jQuery 4.0 when we only auto-append - // "px" to a few hardcoded values. - if ( type === "number" && !isCustomProp ) { - value += ret && ret[ 3 ] || ( jQuery.cssNumber[ origName ] ? "" : "px" ); - } - - // background-* props affect original clone's values - if ( !support.clearCloneStyle && value === "" && name.indexOf( "background" ) === 0 ) { - style[ name ] = "inherit"; - } - - // If a hook was provided, use that value, otherwise just set the specified value - if ( !hooks || !( "set" in hooks ) || - ( value = hooks.set( elem, value, extra ) ) !== undefined ) { - - if ( isCustomProp ) { - style.setProperty( name, value ); - } else { - style[ name ] = value; - } - } - - } else { - - // If a hook was provided get the non-computed value from there - if ( hooks && "get" in hooks && - ( ret = hooks.get( elem, false, extra ) ) !== undefined ) { - - return ret; - } - - // Otherwise just get the value from the style object - return style[ name ]; - } - }, - - css: function( elem, name, extra, styles ) { - var val, num, hooks, - origName = camelCase( name ), - isCustomProp = rcustomProp.test( name ); - - // Make sure that we're working with the right name. We don't - // want to modify the value if it is a CSS custom property - // since they are user-defined. - if ( !isCustomProp ) { - name = finalPropName( origName ); - } - - // Try prefixed name followed by the unprefixed name - hooks = jQuery.cssHooks[ name ] || jQuery.cssHooks[ origName ]; - - // If a hook was provided get the computed value from there - if ( hooks && "get" in hooks ) { - val = hooks.get( elem, true, extra ); - } - - // Otherwise, if a way to get the computed value exists, use that - if ( val === undefined ) { - val = curCSS( elem, name, styles ); - } - - // Convert "normal" to computed value - if ( val === "normal" && name in cssNormalTransform ) { - val = cssNormalTransform[ name ]; - } - - // Make numeric if forced or a qualifier was provided and val looks numeric - if ( extra === "" || extra ) { - num = parseFloat( val ); - return extra === true || isFinite( num ) ? num || 0 : val; - } - - return val; - } -} ); - -jQuery.each( [ "height", "width" ], function( _i, dimension ) { - jQuery.cssHooks[ dimension ] = { - get: function( elem, computed, extra ) { - if ( computed ) { - - // Certain elements can have dimension info if we invisibly show them - // but it must have a current display style that would benefit - return rdisplayswap.test( jQuery.css( elem, "display" ) ) && - - // Support: Safari 8+ - // Table columns in Safari have non-zero offsetWidth & zero - // getBoundingClientRect().width unless display is changed. - // Support: IE <=11 only - // Running getBoundingClientRect on a disconnected node - // in IE throws an error. - ( !elem.getClientRects().length || !elem.getBoundingClientRect().width ) ? - swap( elem, cssShow, function() { - return getWidthOrHeight( elem, dimension, extra ); - } ) : - getWidthOrHeight( elem, dimension, extra ); - } - }, - - set: function( elem, value, extra ) { - var matches, - styles = getStyles( elem ), - - // Only read styles.position if the test has a chance to fail - // to avoid forcing a reflow. - scrollboxSizeBuggy = !support.scrollboxSize() && - styles.position === "absolute", - - // To avoid forcing a reflow, only fetch boxSizing if we need it (gh-3991) - boxSizingNeeded = scrollboxSizeBuggy || extra, - isBorderBox = boxSizingNeeded && - jQuery.css( elem, "boxSizing", false, styles ) === "border-box", - subtract = extra ? - boxModelAdjustment( - elem, - dimension, - extra, - isBorderBox, - styles - ) : - 0; - - // Account for unreliable border-box dimensions by comparing offset* to computed and - // faking a content-box to get border and padding (gh-3699) - if ( isBorderBox && scrollboxSizeBuggy ) { - subtract -= Math.ceil( - elem[ "offset" + dimension[ 0 ].toUpperCase() + dimension.slice( 1 ) ] - - parseFloat( styles[ dimension ] ) - - boxModelAdjustment( elem, dimension, "border", false, styles ) - - 0.5 - ); - } - - // Convert to pixels if value adjustment is needed - if ( subtract && ( matches = rcssNum.exec( value ) ) && - ( matches[ 3 ] || "px" ) !== "px" ) { - - elem.style[ dimension ] = value; - value = jQuery.css( elem, dimension ); - } - - return setPositiveNumber( elem, value, subtract ); - } - }; -} ); - -jQuery.cssHooks.marginLeft = addGetHookIf( support.reliableMarginLeft, - function( elem, computed ) { - if ( computed ) { - return ( parseFloat( curCSS( elem, "marginLeft" ) ) || - elem.getBoundingClientRect().left - - swap( elem, { marginLeft: 0 }, function() { - return elem.getBoundingClientRect().left; - } ) - ) + "px"; - } - } -); - -// These hooks are used by animate to expand properties -jQuery.each( { - margin: "", - padding: "", - border: "Width" -}, function( prefix, suffix ) { - jQuery.cssHooks[ prefix + suffix ] = { - expand: function( value ) { - var i = 0, - expanded = {}, - - // Assumes a single number if not a string - parts = typeof value === "string" ? value.split( " " ) : [ value ]; - - for ( ; i < 4; i++ ) { - expanded[ prefix + cssExpand[ i ] + suffix ] = - parts[ i ] || parts[ i - 2 ] || parts[ 0 ]; - } - - return expanded; - } - }; - - if ( prefix !== "margin" ) { - jQuery.cssHooks[ prefix + suffix ].set = setPositiveNumber; - } -} ); - -jQuery.fn.extend( { - css: function( name, value ) { - return access( this, function( elem, name, value ) { - var styles, len, - map = {}, - i = 0; - - if ( Array.isArray( name ) ) { - styles = getStyles( elem ); - len = name.length; - - for ( ; i < len; i++ ) { - map[ name[ i ] ] = jQuery.css( elem, name[ i ], false, styles ); - } - - return map; - } - - return value !== undefined ? - jQuery.style( elem, name, value ) : - jQuery.css( elem, name ); - }, name, value, arguments.length > 1 ); - } -} ); - - -function Tween( elem, options, prop, end, easing ) { - return new Tween.prototype.init( elem, options, prop, end, easing ); -} -jQuery.Tween = Tween; - -Tween.prototype = { - constructor: Tween, - init: function( elem, options, prop, end, easing, unit ) { - this.elem = elem; - this.prop = prop; - this.easing = easing || jQuery.easing._default; - this.options = options; - this.start = this.now = this.cur(); - this.end = end; - this.unit = unit || ( jQuery.cssNumber[ prop ] ? "" : "px" ); - }, - cur: function() { - var hooks = Tween.propHooks[ this.prop ]; - - return hooks && hooks.get ? - hooks.get( this ) : - Tween.propHooks._default.get( this ); - }, - run: function( percent ) { - var eased, - hooks = Tween.propHooks[ this.prop ]; - - if ( this.options.duration ) { - this.pos = eased = jQuery.easing[ this.easing ]( - percent, this.options.duration * percent, 0, 1, this.options.duration - ); - } else { - this.pos = eased = percent; - } - this.now = ( this.end - this.start ) * eased + this.start; - - if ( this.options.step ) { - this.options.step.call( this.elem, this.now, this ); - } - - if ( hooks && hooks.set ) { - hooks.set( this ); - } else { - Tween.propHooks._default.set( this ); - } - return this; - } -}; - -Tween.prototype.init.prototype = Tween.prototype; - -Tween.propHooks = { - _default: { - get: function( tween ) { - var result; - - // Use a property on the element directly when it is not a DOM element, - // or when there is no matching style property that exists. - if ( tween.elem.nodeType !== 1 || - tween.elem[ tween.prop ] != null && tween.elem.style[ tween.prop ] == null ) { - return tween.elem[ tween.prop ]; - } - - // Passing an empty string as a 3rd parameter to .css will automatically - // attempt a parseFloat and fallback to a string if the parse fails. - // Simple values such as "10px" are parsed to Float; - // complex values such as "rotate(1rad)" are returned as-is. - result = jQuery.css( tween.elem, tween.prop, "" ); - - // Empty strings, null, undefined and "auto" are converted to 0. - return !result || result === "auto" ? 0 : result; - }, - set: function( tween ) { - - // Use step hook for back compat. - // Use cssHook if its there. - // Use .style if available and use plain properties where available. - if ( jQuery.fx.step[ tween.prop ] ) { - jQuery.fx.step[ tween.prop ]( tween ); - } else if ( tween.elem.nodeType === 1 && ( - jQuery.cssHooks[ tween.prop ] || - tween.elem.style[ finalPropName( tween.prop ) ] != null ) ) { - jQuery.style( tween.elem, tween.prop, tween.now + tween.unit ); - } else { - tween.elem[ tween.prop ] = tween.now; - } - } - } -}; - -// Support: IE <=9 only -// Panic based approach to setting things on disconnected nodes -Tween.propHooks.scrollTop = Tween.propHooks.scrollLeft = { - set: function( tween ) { - if ( tween.elem.nodeType && tween.elem.parentNode ) { - tween.elem[ tween.prop ] = tween.now; - } - } -}; - -jQuery.easing = { - linear: function( p ) { - return p; - }, - swing: function( p ) { - return 0.5 - Math.cos( p * Math.PI ) / 2; - }, - _default: "swing" -}; - -jQuery.fx = Tween.prototype.init; - -// Back compat <1.8 extension point -jQuery.fx.step = {}; - - - - -var - fxNow, inProgress, - rfxtypes = /^(?:toggle|show|hide)$/, - rrun = /queueHooks$/; - -function schedule() { - if ( inProgress ) { - if ( document.hidden === false && window.requestAnimationFrame ) { - window.requestAnimationFrame( schedule ); - } else { - window.setTimeout( schedule, jQuery.fx.interval ); - } - - jQuery.fx.tick(); - } -} - -// Animations created synchronously will run synchronously -function createFxNow() { - window.setTimeout( function() { - fxNow = undefined; - } ); - return ( fxNow = Date.now() ); -} - -// Generate parameters to create a standard animation -function genFx( type, includeWidth ) { - var which, - i = 0, - attrs = { height: type }; - - // If we include width, step value is 1 to do all cssExpand values, - // otherwise step value is 2 to skip over Left and Right - includeWidth = includeWidth ? 1 : 0; - for ( ; i < 4; i += 2 - includeWidth ) { - which = cssExpand[ i ]; - attrs[ "margin" + which ] = attrs[ "padding" + which ] = type; - } - - if ( includeWidth ) { - attrs.opacity = attrs.width = type; - } - - return attrs; -} - -function createTween( value, prop, animation ) { - var tween, - collection = ( Animation.tweeners[ prop ] || [] ).concat( Animation.tweeners[ "*" ] ), - index = 0, - length = collection.length; - for ( ; index < length; index++ ) { - if ( ( tween = collection[ index ].call( animation, prop, value ) ) ) { - - // We're done with this property - return tween; - } - } -} - -function defaultPrefilter( elem, props, opts ) { - var prop, value, toggle, hooks, oldfire, propTween, restoreDisplay, display, - isBox = "width" in props || "height" in props, - anim = this, - orig = {}, - style = elem.style, - hidden = elem.nodeType && isHiddenWithinTree( elem ), - dataShow = dataPriv.get( elem, "fxshow" ); - - // Queue-skipping animations hijack the fx hooks - if ( !opts.queue ) { - hooks = jQuery._queueHooks( elem, "fx" ); - if ( hooks.unqueued == null ) { - hooks.unqueued = 0; - oldfire = hooks.empty.fire; - hooks.empty.fire = function() { - if ( !hooks.unqueued ) { - oldfire(); - } - }; - } - hooks.unqueued++; - - anim.always( function() { - - // Ensure the complete handler is called before this completes - anim.always( function() { - hooks.unqueued--; - if ( !jQuery.queue( elem, "fx" ).length ) { - hooks.empty.fire(); - } - } ); - } ); - } - - // Detect show/hide animations - for ( prop in props ) { - value = props[ prop ]; - if ( rfxtypes.test( value ) ) { - delete props[ prop ]; - toggle = toggle || value === "toggle"; - if ( value === ( hidden ? "hide" : "show" ) ) { - - // Pretend to be hidden if this is a "show" and - // there is still data from a stopped show/hide - if ( value === "show" && dataShow && dataShow[ prop ] !== undefined ) { - hidden = true; - - // Ignore all other no-op show/hide data - } else { - continue; - } - } - orig[ prop ] = dataShow && dataShow[ prop ] || jQuery.style( elem, prop ); - } - } - - // Bail out if this is a no-op like .hide().hide() - propTween = !jQuery.isEmptyObject( props ); - if ( !propTween && jQuery.isEmptyObject( orig ) ) { - return; - } - - // Restrict "overflow" and "display" styles during box animations - if ( isBox && elem.nodeType === 1 ) { - - // Support: IE <=9 - 11, Edge 12 - 15 - // Record all 3 overflow attributes because IE does not infer the shorthand - // from identically-valued overflowX and overflowY and Edge just mirrors - // the overflowX value there. - opts.overflow = [ style.overflow, style.overflowX, style.overflowY ]; - - // Identify a display type, preferring old show/hide data over the CSS cascade - restoreDisplay = dataShow && dataShow.display; - if ( restoreDisplay == null ) { - restoreDisplay = dataPriv.get( elem, "display" ); - } - display = jQuery.css( elem, "display" ); - if ( display === "none" ) { - if ( restoreDisplay ) { - display = restoreDisplay; - } else { - - // Get nonempty value(s) by temporarily forcing visibility - showHide( [ elem ], true ); - restoreDisplay = elem.style.display || restoreDisplay; - display = jQuery.css( elem, "display" ); - showHide( [ elem ] ); - } - } - - // Animate inline elements as inline-block - if ( display === "inline" || display === "inline-block" && restoreDisplay != null ) { - if ( jQuery.css( elem, "float" ) === "none" ) { - - // Restore the original display value at the end of pure show/hide animations - if ( !propTween ) { - anim.done( function() { - style.display = restoreDisplay; - } ); - if ( restoreDisplay == null ) { - display = style.display; - restoreDisplay = display === "none" ? "" : display; - } - } - style.display = "inline-block"; - } - } - } - - if ( opts.overflow ) { - style.overflow = "hidden"; - anim.always( function() { - style.overflow = opts.overflow[ 0 ]; - style.overflowX = opts.overflow[ 1 ]; - style.overflowY = opts.overflow[ 2 ]; - } ); - } - - // Implement show/hide animations - propTween = false; - for ( prop in orig ) { - - // General show/hide setup for this element animation - if ( !propTween ) { - if ( dataShow ) { - if ( "hidden" in dataShow ) { - hidden = dataShow.hidden; - } - } else { - dataShow = dataPriv.access( elem, "fxshow", { display: restoreDisplay } ); - } - - // Store hidden/visible for toggle so `.stop().toggle()` "reverses" - if ( toggle ) { - dataShow.hidden = !hidden; - } - - // Show elements before animating them - if ( hidden ) { - showHide( [ elem ], true ); - } - - /* eslint-disable no-loop-func */ - - anim.done( function() { - - /* eslint-enable no-loop-func */ - - // The final step of a "hide" animation is actually hiding the element - if ( !hidden ) { - showHide( [ elem ] ); - } - dataPriv.remove( elem, "fxshow" ); - for ( prop in orig ) { - jQuery.style( elem, prop, orig[ prop ] ); - } - } ); - } - - // Per-property setup - propTween = createTween( hidden ? dataShow[ prop ] : 0, prop, anim ); - if ( !( prop in dataShow ) ) { - dataShow[ prop ] = propTween.start; - if ( hidden ) { - propTween.end = propTween.start; - propTween.start = 0; - } - } - } -} - -function propFilter( props, specialEasing ) { - var index, name, easing, value, hooks; - - // camelCase, specialEasing and expand cssHook pass - for ( index in props ) { - name = camelCase( index ); - easing = specialEasing[ name ]; - value = props[ index ]; - if ( Array.isArray( value ) ) { - easing = value[ 1 ]; - value = props[ index ] = value[ 0 ]; - } - - if ( index !== name ) { - props[ name ] = value; - delete props[ index ]; - } - - hooks = jQuery.cssHooks[ name ]; - if ( hooks && "expand" in hooks ) { - value = hooks.expand( value ); - delete props[ name ]; - - // Not quite $.extend, this won't overwrite existing keys. - // Reusing 'index' because we have the correct "name" - for ( index in value ) { - if ( !( index in props ) ) { - props[ index ] = value[ index ]; - specialEasing[ index ] = easing; - } - } - } else { - specialEasing[ name ] = easing; - } - } -} - -function Animation( elem, properties, options ) { - var result, - stopped, - index = 0, - length = Animation.prefilters.length, - deferred = jQuery.Deferred().always( function() { - - // Don't match elem in the :animated selector - delete tick.elem; - } ), - tick = function() { - if ( stopped ) { - return false; - } - var currentTime = fxNow || createFxNow(), - remaining = Math.max( 0, animation.startTime + animation.duration - currentTime ), - - // Support: Android 2.3 only - // Archaic crash bug won't allow us to use `1 - ( 0.5 || 0 )` (#12497) - temp = remaining / animation.duration || 0, - percent = 1 - temp, - index = 0, - length = animation.tweens.length; - - for ( ; index < length; index++ ) { - animation.tweens[ index ].run( percent ); - } - - deferred.notifyWith( elem, [ animation, percent, remaining ] ); - - // If there's more to do, yield - if ( percent < 1 && length ) { - return remaining; - } - - // If this was an empty animation, synthesize a final progress notification - if ( !length ) { - deferred.notifyWith( elem, [ animation, 1, 0 ] ); - } - - // Resolve the animation and report its conclusion - deferred.resolveWith( elem, [ animation ] ); - return false; - }, - animation = deferred.promise( { - elem: elem, - props: jQuery.extend( {}, properties ), - opts: jQuery.extend( true, { - specialEasing: {}, - easing: jQuery.easing._default - }, options ), - originalProperties: properties, - originalOptions: options, - startTime: fxNow || createFxNow(), - duration: options.duration, - tweens: [], - createTween: function( prop, end ) { - var tween = jQuery.Tween( elem, animation.opts, prop, end, - animation.opts.specialEasing[ prop ] || animation.opts.easing ); - animation.tweens.push( tween ); - return tween; - }, - stop: function( gotoEnd ) { - var index = 0, - - // If we are going to the end, we want to run all the tweens - // otherwise we skip this part - length = gotoEnd ? animation.tweens.length : 0; - if ( stopped ) { - return this; - } - stopped = true; - for ( ; index < length; index++ ) { - animation.tweens[ index ].run( 1 ); - } - - // Resolve when we played the last frame; otherwise, reject - if ( gotoEnd ) { - deferred.notifyWith( elem, [ animation, 1, 0 ] ); - deferred.resolveWith( elem, [ animation, gotoEnd ] ); - } else { - deferred.rejectWith( elem, [ animation, gotoEnd ] ); - } - return this; - } - } ), - props = animation.props; - - propFilter( props, animation.opts.specialEasing ); - - for ( ; index < length; index++ ) { - result = Animation.prefilters[ index ].call( animation, elem, props, animation.opts ); - if ( result ) { - if ( isFunction( result.stop ) ) { - jQuery._queueHooks( animation.elem, animation.opts.queue ).stop = - result.stop.bind( result ); - } - return result; - } - } - - jQuery.map( props, createTween, animation ); - - if ( isFunction( animation.opts.start ) ) { - animation.opts.start.call( elem, animation ); - } - - // Attach callbacks from options - animation - .progress( animation.opts.progress ) - .done( animation.opts.done, animation.opts.complete ) - .fail( animation.opts.fail ) - .always( animation.opts.always ); - - jQuery.fx.timer( - jQuery.extend( tick, { - elem: elem, - anim: animation, - queue: animation.opts.queue - } ) - ); - - return animation; -} - -jQuery.Animation = jQuery.extend( Animation, { - - tweeners: { - "*": [ function( prop, value ) { - var tween = this.createTween( prop, value ); - adjustCSS( tween.elem, prop, rcssNum.exec( value ), tween ); - return tween; - } ] - }, - - tweener: function( props, callback ) { - if ( isFunction( props ) ) { - callback = props; - props = [ "*" ]; - } else { - props = props.match( rnothtmlwhite ); - } - - var prop, - index = 0, - length = props.length; - - for ( ; index < length; index++ ) { - prop = props[ index ]; - Animation.tweeners[ prop ] = Animation.tweeners[ prop ] || []; - Animation.tweeners[ prop ].unshift( callback ); - } - }, - - prefilters: [ defaultPrefilter ], - - prefilter: function( callback, prepend ) { - if ( prepend ) { - Animation.prefilters.unshift( callback ); - } else { - Animation.prefilters.push( callback ); - } - } -} ); - -jQuery.speed = function( speed, easing, fn ) { - var opt = speed && typeof speed === "object" ? jQuery.extend( {}, speed ) : { - complete: fn || !fn && easing || - isFunction( speed ) && speed, - duration: speed, - easing: fn && easing || easing && !isFunction( easing ) && easing - }; - - // Go to the end state if fx are off - if ( jQuery.fx.off ) { - opt.duration = 0; - - } else { - if ( typeof opt.duration !== "number" ) { - if ( opt.duration in jQuery.fx.speeds ) { - opt.duration = jQuery.fx.speeds[ opt.duration ]; - - } else { - opt.duration = jQuery.fx.speeds._default; - } - } - } - - // Normalize opt.queue - true/undefined/null -> "fx" - if ( opt.queue == null || opt.queue === true ) { - opt.queue = "fx"; - } - - // Queueing - opt.old = opt.complete; - - opt.complete = function() { - if ( isFunction( opt.old ) ) { - opt.old.call( this ); - } - - if ( opt.queue ) { - jQuery.dequeue( this, opt.queue ); - } - }; - - return opt; -}; - -jQuery.fn.extend( { - fadeTo: function( speed, to, easing, callback ) { - - // Show any hidden elements after setting opacity to 0 - return this.filter( isHiddenWithinTree ).css( "opacity", 0 ).show() - - // Animate to the value specified - .end().animate( { opacity: to }, speed, easing, callback ); - }, - animate: function( prop, speed, easing, callback ) { - var empty = jQuery.isEmptyObject( prop ), - optall = jQuery.speed( speed, easing, callback ), - doAnimation = function() { - - // Operate on a copy of prop so per-property easing won't be lost - var anim = Animation( this, jQuery.extend( {}, prop ), optall ); - - // Empty animations, or finishing resolves immediately - if ( empty || dataPriv.get( this, "finish" ) ) { - anim.stop( true ); - } - }; - doAnimation.finish = doAnimation; - - return empty || optall.queue === false ? - this.each( doAnimation ) : - this.queue( optall.queue, doAnimation ); - }, - stop: function( type, clearQueue, gotoEnd ) { - var stopQueue = function( hooks ) { - var stop = hooks.stop; - delete hooks.stop; - stop( gotoEnd ); - }; - - if ( typeof type !== "string" ) { - gotoEnd = clearQueue; - clearQueue = type; - type = undefined; - } - if ( clearQueue ) { - this.queue( type || "fx", [] ); - } - - return this.each( function() { - var dequeue = true, - index = type != null && type + "queueHooks", - timers = jQuery.timers, - data = dataPriv.get( this ); - - if ( index ) { - if ( data[ index ] && data[ index ].stop ) { - stopQueue( data[ index ] ); - } - } else { - for ( index in data ) { - if ( data[ index ] && data[ index ].stop && rrun.test( index ) ) { - stopQueue( data[ index ] ); - } - } - } - - for ( index = timers.length; index--; ) { - if ( timers[ index ].elem === this && - ( type == null || timers[ index ].queue === type ) ) { - - timers[ index ].anim.stop( gotoEnd ); - dequeue = false; - timers.splice( index, 1 ); - } - } - - // Start the next in the queue if the last step wasn't forced. - // Timers currently will call their complete callbacks, which - // will dequeue but only if they were gotoEnd. - if ( dequeue || !gotoEnd ) { - jQuery.dequeue( this, type ); - } - } ); - }, - finish: function( type ) { - if ( type !== false ) { - type = type || "fx"; - } - return this.each( function() { - var index, - data = dataPriv.get( this ), - queue = data[ type + "queue" ], - hooks = data[ type + "queueHooks" ], - timers = jQuery.timers, - length = queue ? queue.length : 0; - - // Enable finishing flag on private data - data.finish = true; - - // Empty the queue first - jQuery.queue( this, type, [] ); - - if ( hooks && hooks.stop ) { - hooks.stop.call( this, true ); - } - - // Look for any active animations, and finish them - for ( index = timers.length; index--; ) { - if ( timers[ index ].elem === this && timers[ index ].queue === type ) { - timers[ index ].anim.stop( true ); - timers.splice( index, 1 ); - } - } - - // Look for any animations in the old queue and finish them - for ( index = 0; index < length; index++ ) { - if ( queue[ index ] && queue[ index ].finish ) { - queue[ index ].finish.call( this ); - } - } - - // Turn off finishing flag - delete data.finish; - } ); - } -} ); - -jQuery.each( [ "toggle", "show", "hide" ], function( _i, name ) { - var cssFn = jQuery.fn[ name ]; - jQuery.fn[ name ] = function( speed, easing, callback ) { - return speed == null || typeof speed === "boolean" ? - cssFn.apply( this, arguments ) : - this.animate( genFx( name, true ), speed, easing, callback ); - }; -} ); - -// Generate shortcuts for custom animations -jQuery.each( { - slideDown: genFx( "show" ), - slideUp: genFx( "hide" ), - slideToggle: genFx( "toggle" ), - fadeIn: { opacity: "show" }, - fadeOut: { opacity: "hide" }, - fadeToggle: { opacity: "toggle" } -}, function( name, props ) { - jQuery.fn[ name ] = function( speed, easing, callback ) { - return this.animate( props, speed, easing, callback ); - }; -} ); - -jQuery.timers = []; -jQuery.fx.tick = function() { - var timer, - i = 0, - timers = jQuery.timers; - - fxNow = Date.now(); - - for ( ; i < timers.length; i++ ) { - timer = timers[ i ]; - - // Run the timer and safely remove it when done (allowing for external removal) - if ( !timer() && timers[ i ] === timer ) { - timers.splice( i--, 1 ); - } - } - - if ( !timers.length ) { - jQuery.fx.stop(); - } - fxNow = undefined; -}; - -jQuery.fx.timer = function( timer ) { - jQuery.timers.push( timer ); - jQuery.fx.start(); -}; - -jQuery.fx.interval = 13; -jQuery.fx.start = function() { - if ( inProgress ) { - return; - } - - inProgress = true; - schedule(); -}; - -jQuery.fx.stop = function() { - inProgress = null; -}; - -jQuery.fx.speeds = { - slow: 600, - fast: 200, - - // Default speed - _default: 400 -}; - - -// Based off of the plugin by Clint Helfers, with permission. -// https://web.archive.org/web/20100324014747/http://blindsignals.com/index.php/2009/07/jquery-delay/ -jQuery.fn.delay = function( time, type ) { - time = jQuery.fx ? jQuery.fx.speeds[ time ] || time : time; - type = type || "fx"; - - return this.queue( type, function( next, hooks ) { - var timeout = window.setTimeout( next, time ); - hooks.stop = function() { - window.clearTimeout( timeout ); - }; - } ); -}; - - -( function() { - var input = document.createElement( "input" ), - select = document.createElement( "select" ), - opt = select.appendChild( document.createElement( "option" ) ); - - input.type = "checkbox"; - - // Support: Android <=4.3 only - // Default value for a checkbox should be "on" - support.checkOn = input.value !== ""; - - // Support: IE <=11 only - // Must access selectedIndex to make default options select - support.optSelected = opt.selected; - - // Support: IE <=11 only - // An input loses its value after becoming a radio - input = document.createElement( "input" ); - input.value = "t"; - input.type = "radio"; - support.radioValue = input.value === "t"; -} )(); - - -var boolHook, - attrHandle = jQuery.expr.attrHandle; - -jQuery.fn.extend( { - attr: function( name, value ) { - return access( this, jQuery.attr, name, value, arguments.length > 1 ); - }, - - removeAttr: function( name ) { - return this.each( function() { - jQuery.removeAttr( this, name ); - } ); - } -} ); - -jQuery.extend( { - attr: function( elem, name, value ) { - var ret, hooks, - nType = elem.nodeType; - - // Don't get/set attributes on text, comment and attribute nodes - if ( nType === 3 || nType === 8 || nType === 2 ) { - return; - } - - // Fallback to prop when attributes are not supported - if ( typeof elem.getAttribute === "undefined" ) { - return jQuery.prop( elem, name, value ); - } - - // Attribute hooks are determined by the lowercase version - // Grab necessary hook if one is defined - if ( nType !== 1 || !jQuery.isXMLDoc( elem ) ) { - hooks = jQuery.attrHooks[ name.toLowerCase() ] || - ( jQuery.expr.match.bool.test( name ) ? boolHook : undefined ); - } - - if ( value !== undefined ) { - if ( value === null ) { - jQuery.removeAttr( elem, name ); - return; - } - - if ( hooks && "set" in hooks && - ( ret = hooks.set( elem, value, name ) ) !== undefined ) { - return ret; - } - - elem.setAttribute( name, value + "" ); - return value; - } - - if ( hooks && "get" in hooks && ( ret = hooks.get( elem, name ) ) !== null ) { - return ret; - } - - ret = jQuery.find.attr( elem, name ); - - // Non-existent attributes return null, we normalize to undefined - return ret == null ? undefined : ret; - }, - - attrHooks: { - type: { - set: function( elem, value ) { - if ( !support.radioValue && value === "radio" && - nodeName( elem, "input" ) ) { - var val = elem.value; - elem.setAttribute( "type", value ); - if ( val ) { - elem.value = val; - } - return value; - } - } - } - }, - - removeAttr: function( elem, value ) { - var name, - i = 0, - - // Attribute names can contain non-HTML whitespace characters - // https://html.spec.whatwg.org/multipage/syntax.html#attributes-2 - attrNames = value && value.match( rnothtmlwhite ); - - if ( attrNames && elem.nodeType === 1 ) { - while ( ( name = attrNames[ i++ ] ) ) { - elem.removeAttribute( name ); - } - } - } -} ); - -// Hooks for boolean attributes -boolHook = { - set: function( elem, value, name ) { - if ( value === false ) { - - // Remove boolean attributes when set to false - jQuery.removeAttr( elem, name ); - } else { - elem.setAttribute( name, name ); - } - return name; - } -}; - -jQuery.each( jQuery.expr.match.bool.source.match( /\w+/g ), function( _i, name ) { - var getter = attrHandle[ name ] || jQuery.find.attr; - - attrHandle[ name ] = function( elem, name, isXML ) { - var ret, handle, - lowercaseName = name.toLowerCase(); - - if ( !isXML ) { - - // Avoid an infinite loop by temporarily removing this function from the getter - handle = attrHandle[ lowercaseName ]; - attrHandle[ lowercaseName ] = ret; - ret = getter( elem, name, isXML ) != null ? - lowercaseName : - null; - attrHandle[ lowercaseName ] = handle; - } - return ret; - }; -} ); - - - - -var rfocusable = /^(?:input|select|textarea|button)$/i, - rclickable = /^(?:a|area)$/i; - -jQuery.fn.extend( { - prop: function( name, value ) { - return access( this, jQuery.prop, name, value, arguments.length > 1 ); - }, - - removeProp: function( name ) { - return this.each( function() { - delete this[ jQuery.propFix[ name ] || name ]; - } ); - } -} ); - -jQuery.extend( { - prop: function( elem, name, value ) { - var ret, hooks, - nType = elem.nodeType; - - // Don't get/set properties on text, comment and attribute nodes - if ( nType === 3 || nType === 8 || nType === 2 ) { - return; - } - - if ( nType !== 1 || !jQuery.isXMLDoc( elem ) ) { - - // Fix name and attach hooks - name = jQuery.propFix[ name ] || name; - hooks = jQuery.propHooks[ name ]; - } - - if ( value !== undefined ) { - if ( hooks && "set" in hooks && - ( ret = hooks.set( elem, value, name ) ) !== undefined ) { - return ret; - } - - return ( elem[ name ] = value ); - } - - if ( hooks && "get" in hooks && ( ret = hooks.get( elem, name ) ) !== null ) { - return ret; - } - - return elem[ name ]; - }, - - propHooks: { - tabIndex: { - get: function( elem ) { - - // Support: IE <=9 - 11 only - // elem.tabIndex doesn't always return the - // correct value when it hasn't been explicitly set - // https://web.archive.org/web/20141116233347/http://fluidproject.org/blog/2008/01/09/getting-setting-and-removing-tabindex-values-with-javascript/ - // Use proper attribute retrieval(#12072) - var tabindex = jQuery.find.attr( elem, "tabindex" ); - - if ( tabindex ) { - return parseInt( tabindex, 10 ); - } - - if ( - rfocusable.test( elem.nodeName ) || - rclickable.test( elem.nodeName ) && - elem.href - ) { - return 0; - } - - return -1; - } - } - }, - - propFix: { - "for": "htmlFor", - "class": "className" - } -} ); - -// Support: IE <=11 only -// Accessing the selectedIndex property -// forces the browser to respect setting selected -// on the option -// The getter ensures a default option is selected -// when in an optgroup -// eslint rule "no-unused-expressions" is disabled for this code -// since it considers such accessions noop -if ( !support.optSelected ) { - jQuery.propHooks.selected = { - get: function( elem ) { - - /* eslint no-unused-expressions: "off" */ - - var parent = elem.parentNode; - if ( parent && parent.parentNode ) { - parent.parentNode.selectedIndex; - } - return null; - }, - set: function( elem ) { - - /* eslint no-unused-expressions: "off" */ - - var parent = elem.parentNode; - if ( parent ) { - parent.selectedIndex; - - if ( parent.parentNode ) { - parent.parentNode.selectedIndex; - } - } - } - }; -} - -jQuery.each( [ - "tabIndex", - "readOnly", - "maxLength", - "cellSpacing", - "cellPadding", - "rowSpan", - "colSpan", - "useMap", - "frameBorder", - "contentEditable" -], function() { - jQuery.propFix[ this.toLowerCase() ] = this; -} ); - - - - - // Strip and collapse whitespace according to HTML spec - // https://infra.spec.whatwg.org/#strip-and-collapse-ascii-whitespace - function stripAndCollapse( value ) { - var tokens = value.match( rnothtmlwhite ) || []; - return tokens.join( " " ); - } - - -function getClass( elem ) { - return elem.getAttribute && elem.getAttribute( "class" ) || ""; -} - -function classesToArray( value ) { - if ( Array.isArray( value ) ) { - return value; - } - if ( typeof value === "string" ) { - return value.match( rnothtmlwhite ) || []; - } - return []; -} - -jQuery.fn.extend( { - addClass: function( value ) { - var classes, elem, cur, curValue, clazz, j, finalValue, - i = 0; - - if ( isFunction( value ) ) { - return this.each( function( j ) { - jQuery( this ).addClass( value.call( this, j, getClass( this ) ) ); - } ); - } - - classes = classesToArray( value ); - - if ( classes.length ) { - while ( ( elem = this[ i++ ] ) ) { - curValue = getClass( elem ); - cur = elem.nodeType === 1 && ( " " + stripAndCollapse( curValue ) + " " ); - - if ( cur ) { - j = 0; - while ( ( clazz = classes[ j++ ] ) ) { - if ( cur.indexOf( " " + clazz + " " ) < 0 ) { - cur += clazz + " "; - } - } - - // Only assign if different to avoid unneeded rendering. - finalValue = stripAndCollapse( cur ); - if ( curValue !== finalValue ) { - elem.setAttribute( "class", finalValue ); - } - } - } - } - - return this; - }, - - removeClass: function( value ) { - var classes, elem, cur, curValue, clazz, j, finalValue, - i = 0; - - if ( isFunction( value ) ) { - return this.each( function( j ) { - jQuery( this ).removeClass( value.call( this, j, getClass( this ) ) ); - } ); - } - - if ( !arguments.length ) { - return this.attr( "class", "" ); - } - - classes = classesToArray( value ); - - if ( classes.length ) { - while ( ( elem = this[ i++ ] ) ) { - curValue = getClass( elem ); - - // This expression is here for better compressibility (see addClass) - cur = elem.nodeType === 1 && ( " " + stripAndCollapse( curValue ) + " " ); - - if ( cur ) { - j = 0; - while ( ( clazz = classes[ j++ ] ) ) { - - // Remove *all* instances - while ( cur.indexOf( " " + clazz + " " ) > -1 ) { - cur = cur.replace( " " + clazz + " ", " " ); - } - } - - // Only assign if different to avoid unneeded rendering. - finalValue = stripAndCollapse( cur ); - if ( curValue !== finalValue ) { - elem.setAttribute( "class", finalValue ); - } - } - } - } - - return this; - }, - - toggleClass: function( value, stateVal ) { - var type = typeof value, - isValidValue = type === "string" || Array.isArray( value ); - - if ( typeof stateVal === "boolean" && isValidValue ) { - return stateVal ? this.addClass( value ) : this.removeClass( value ); - } - - if ( isFunction( value ) ) { - return this.each( function( i ) { - jQuery( this ).toggleClass( - value.call( this, i, getClass( this ), stateVal ), - stateVal - ); - } ); - } - - return this.each( function() { - var className, i, self, classNames; - - if ( isValidValue ) { - - // Toggle individual class names - i = 0; - self = jQuery( this ); - classNames = classesToArray( value ); - - while ( ( className = classNames[ i++ ] ) ) { - - // Check each className given, space separated list - if ( self.hasClass( className ) ) { - self.removeClass( className ); - } else { - self.addClass( className ); - } - } - - // Toggle whole class name - } else if ( value === undefined || type === "boolean" ) { - className = getClass( this ); - if ( className ) { - - // Store className if set - dataPriv.set( this, "__className__", className ); - } - - // If the element has a class name or if we're passed `false`, - // then remove the whole classname (if there was one, the above saved it). - // Otherwise bring back whatever was previously saved (if anything), - // falling back to the empty string if nothing was stored. - if ( this.setAttribute ) { - this.setAttribute( "class", - className || value === false ? - "" : - dataPriv.get( this, "__className__" ) || "" - ); - } - } - } ); - }, - - hasClass: function( selector ) { - var className, elem, - i = 0; - - className = " " + selector + " "; - while ( ( elem = this[ i++ ] ) ) { - if ( elem.nodeType === 1 && - ( " " + stripAndCollapse( getClass( elem ) ) + " " ).indexOf( className ) > -1 ) { - return true; - } - } - - return false; - } -} ); - - - - -var rreturn = /\r/g; - -jQuery.fn.extend( { - val: function( value ) { - var hooks, ret, valueIsFunction, - elem = this[ 0 ]; - - if ( !arguments.length ) { - if ( elem ) { - hooks = jQuery.valHooks[ elem.type ] || - jQuery.valHooks[ elem.nodeName.toLowerCase() ]; - - if ( hooks && - "get" in hooks && - ( ret = hooks.get( elem, "value" ) ) !== undefined - ) { - return ret; - } - - ret = elem.value; - - // Handle most common string cases - if ( typeof ret === "string" ) { - return ret.replace( rreturn, "" ); - } - - // Handle cases where value is null/undef or number - return ret == null ? "" : ret; - } - - return; - } - - valueIsFunction = isFunction( value ); - - return this.each( function( i ) { - var val; - - if ( this.nodeType !== 1 ) { - return; - } - - if ( valueIsFunction ) { - val = value.call( this, i, jQuery( this ).val() ); - } else { - val = value; - } - - // Treat null/undefined as ""; convert numbers to string - if ( val == null ) { - val = ""; - - } else if ( typeof val === "number" ) { - val += ""; - - } else if ( Array.isArray( val ) ) { - val = jQuery.map( val, function( value ) { - return value == null ? "" : value + ""; - } ); - } - - hooks = jQuery.valHooks[ this.type ] || jQuery.valHooks[ this.nodeName.toLowerCase() ]; - - // If set returns undefined, fall back to normal setting - if ( !hooks || !( "set" in hooks ) || hooks.set( this, val, "value" ) === undefined ) { - this.value = val; - } - } ); - } -} ); - -jQuery.extend( { - valHooks: { - option: { - get: function( elem ) { - - var val = jQuery.find.attr( elem, "value" ); - return val != null ? - val : - - // Support: IE <=10 - 11 only - // option.text throws exceptions (#14686, #14858) - // Strip and collapse whitespace - // https://html.spec.whatwg.org/#strip-and-collapse-whitespace - stripAndCollapse( jQuery.text( elem ) ); - } - }, - select: { - get: function( elem ) { - var value, option, i, - options = elem.options, - index = elem.selectedIndex, - one = elem.type === "select-one", - values = one ? null : [], - max = one ? index + 1 : options.length; - - if ( index < 0 ) { - i = max; - - } else { - i = one ? index : 0; - } - - // Loop through all the selected options - for ( ; i < max; i++ ) { - option = options[ i ]; - - // Support: IE <=9 only - // IE8-9 doesn't update selected after form reset (#2551) - if ( ( option.selected || i === index ) && - - // Don't return options that are disabled or in a disabled optgroup - !option.disabled && - ( !option.parentNode.disabled || - !nodeName( option.parentNode, "optgroup" ) ) ) { - - // Get the specific value for the option - value = jQuery( option ).val(); - - // We don't need an array for one selects - if ( one ) { - return value; - } - - // Multi-Selects return an array - values.push( value ); - } - } - - return values; - }, - - set: function( elem, value ) { - var optionSet, option, - options = elem.options, - values = jQuery.makeArray( value ), - i = options.length; - - while ( i-- ) { - option = options[ i ]; - - /* eslint-disable no-cond-assign */ - - if ( option.selected = - jQuery.inArray( jQuery.valHooks.option.get( option ), values ) > -1 - ) { - optionSet = true; - } - - /* eslint-enable no-cond-assign */ - } - - // Force browsers to behave consistently when non-matching value is set - if ( !optionSet ) { - elem.selectedIndex = -1; - } - return values; - } - } - } -} ); - -// Radios and checkboxes getter/setter -jQuery.each( [ "radio", "checkbox" ], function() { - jQuery.valHooks[ this ] = { - set: function( elem, value ) { - if ( Array.isArray( value ) ) { - return ( elem.checked = jQuery.inArray( jQuery( elem ).val(), value ) > -1 ); - } - } - }; - if ( !support.checkOn ) { - jQuery.valHooks[ this ].get = function( elem ) { - return elem.getAttribute( "value" ) === null ? "on" : elem.value; - }; - } -} ); - - - - -// Return jQuery for attributes-only inclusion - - -support.focusin = "onfocusin" in window; - - -var rfocusMorph = /^(?:focusinfocus|focusoutblur)$/, - stopPropagationCallback = function( e ) { - e.stopPropagation(); - }; - -jQuery.extend( jQuery.event, { - - trigger: function( event, data, elem, onlyHandlers ) { - - var i, cur, tmp, bubbleType, ontype, handle, special, lastElement, - eventPath = [ elem || document ], - type = hasOwn.call( event, "type" ) ? event.type : event, - namespaces = hasOwn.call( event, "namespace" ) ? event.namespace.split( "." ) : []; - - cur = lastElement = tmp = elem = elem || document; - - // Don't do events on text and comment nodes - if ( elem.nodeType === 3 || elem.nodeType === 8 ) { - return; - } - - // focus/blur morphs to focusin/out; ensure we're not firing them right now - if ( rfocusMorph.test( type + jQuery.event.triggered ) ) { - return; - } - - if ( type.indexOf( "." ) > -1 ) { - - // Namespaced trigger; create a regexp to match event type in handle() - namespaces = type.split( "." ); - type = namespaces.shift(); - namespaces.sort(); - } - ontype = type.indexOf( ":" ) < 0 && "on" + type; - - // Caller can pass in a jQuery.Event object, Object, or just an event type string - event = event[ jQuery.expando ] ? - event : - new jQuery.Event( type, typeof event === "object" && event ); - - // Trigger bitmask: & 1 for native handlers; & 2 for jQuery (always true) - event.isTrigger = onlyHandlers ? 2 : 3; - event.namespace = namespaces.join( "." ); - event.rnamespace = event.namespace ? - new RegExp( "(^|\\.)" + namespaces.join( "\\.(?:.*\\.|)" ) + "(\\.|$)" ) : - null; - - // Clean up the event in case it is being reused - event.result = undefined; - if ( !event.target ) { - event.target = elem; - } - - // Clone any incoming data and prepend the event, creating the handler arg list - data = data == null ? - [ event ] : - jQuery.makeArray( data, [ event ] ); - - // Allow special events to draw outside the lines - special = jQuery.event.special[ type ] || {}; - if ( !onlyHandlers && special.trigger && special.trigger.apply( elem, data ) === false ) { - return; - } - - // Determine event propagation path in advance, per W3C events spec (#9951) - // Bubble up to document, then to window; watch for a global ownerDocument var (#9724) - if ( !onlyHandlers && !special.noBubble && !isWindow( elem ) ) { - - bubbleType = special.delegateType || type; - if ( !rfocusMorph.test( bubbleType + type ) ) { - cur = cur.parentNode; - } - for ( ; cur; cur = cur.parentNode ) { - eventPath.push( cur ); - tmp = cur; - } - - // Only add window if we got to document (e.g., not plain obj or detached DOM) - if ( tmp === ( elem.ownerDocument || document ) ) { - eventPath.push( tmp.defaultView || tmp.parentWindow || window ); - } - } - - // Fire handlers on the event path - i = 0; - while ( ( cur = eventPath[ i++ ] ) && !event.isPropagationStopped() ) { - lastElement = cur; - event.type = i > 1 ? - bubbleType : - special.bindType || type; - - // jQuery handler - handle = ( - dataPriv.get( cur, "events" ) || Object.create( null ) - )[ event.type ] && - dataPriv.get( cur, "handle" ); - if ( handle ) { - handle.apply( cur, data ); - } - - // Native handler - handle = ontype && cur[ ontype ]; - if ( handle && handle.apply && acceptData( cur ) ) { - event.result = handle.apply( cur, data ); - if ( event.result === false ) { - event.preventDefault(); - } - } - } - event.type = type; - - // If nobody prevented the default action, do it now - if ( !onlyHandlers && !event.isDefaultPrevented() ) { - - if ( ( !special._default || - special._default.apply( eventPath.pop(), data ) === false ) && - acceptData( elem ) ) { - - // Call a native DOM method on the target with the same name as the event. - // Don't do default actions on window, that's where global variables be (#6170) - if ( ontype && isFunction( elem[ type ] ) && !isWindow( elem ) ) { - - // Don't re-trigger an onFOO event when we call its FOO() method - tmp = elem[ ontype ]; - - if ( tmp ) { - elem[ ontype ] = null; - } - - // Prevent re-triggering of the same event, since we already bubbled it above - jQuery.event.triggered = type; - - if ( event.isPropagationStopped() ) { - lastElement.addEventListener( type, stopPropagationCallback ); - } - - elem[ type ](); - - if ( event.isPropagationStopped() ) { - lastElement.removeEventListener( type, stopPropagationCallback ); - } - - jQuery.event.triggered = undefined; - - if ( tmp ) { - elem[ ontype ] = tmp; - } - } - } - } - - return event.result; - }, - - // Piggyback on a donor event to simulate a different one - // Used only for `focus(in | out)` events - simulate: function( type, elem, event ) { - var e = jQuery.extend( - new jQuery.Event(), - event, - { - type: type, - isSimulated: true - } - ); - - jQuery.event.trigger( e, null, elem ); - } - -} ); - -jQuery.fn.extend( { - - trigger: function( type, data ) { - return this.each( function() { - jQuery.event.trigger( type, data, this ); - } ); - }, - triggerHandler: function( type, data ) { - var elem = this[ 0 ]; - if ( elem ) { - return jQuery.event.trigger( type, data, elem, true ); - } - } -} ); - - -// Support: Firefox <=44 -// Firefox doesn't have focus(in | out) events -// Related ticket - https://bugzilla.mozilla.org/show_bug.cgi?id=687787 -// -// Support: Chrome <=48 - 49, Safari <=9.0 - 9.1 -// focus(in | out) events fire after focus & blur events, -// which is spec violation - http://www.w3.org/TR/DOM-Level-3-Events/#events-focusevent-event-order -// Related ticket - https://bugs.chromium.org/p/chromium/issues/detail?id=449857 -if ( !support.focusin ) { - jQuery.each( { focus: "focusin", blur: "focusout" }, function( orig, fix ) { - - // Attach a single capturing handler on the document while someone wants focusin/focusout - var handler = function( event ) { - jQuery.event.simulate( fix, event.target, jQuery.event.fix( event ) ); - }; - - jQuery.event.special[ fix ] = { - setup: function() { - - // Handle: regular nodes (via `this.ownerDocument`), window - // (via `this.document`) & document (via `this`). - var doc = this.ownerDocument || this.document || this, - attaches = dataPriv.access( doc, fix ); - - if ( !attaches ) { - doc.addEventListener( orig, handler, true ); - } - dataPriv.access( doc, fix, ( attaches || 0 ) + 1 ); - }, - teardown: function() { - var doc = this.ownerDocument || this.document || this, - attaches = dataPriv.access( doc, fix ) - 1; - - if ( !attaches ) { - doc.removeEventListener( orig, handler, true ); - dataPriv.remove( doc, fix ); - - } else { - dataPriv.access( doc, fix, attaches ); - } - } - }; - } ); -} -var location = window.location; - -var nonce = { guid: Date.now() }; - -var rquery = ( /\?/ ); - - - -// Cross-browser xml parsing -jQuery.parseXML = function( data ) { - var xml; - if ( !data || typeof data !== "string" ) { - return null; - } - - // Support: IE 9 - 11 only - // IE throws on parseFromString with invalid input. - try { - xml = ( new window.DOMParser() ).parseFromString( data, "text/xml" ); - } catch ( e ) { - xml = undefined; - } - - if ( !xml || xml.getElementsByTagName( "parsererror" ).length ) { - jQuery.error( "Invalid XML: " + data ); - } - return xml; -}; - - -var - rbracket = /\[\]$/, - rCRLF = /\r?\n/g, - rsubmitterTypes = /^(?:submit|button|image|reset|file)$/i, - rsubmittable = /^(?:input|select|textarea|keygen)/i; - -function buildParams( prefix, obj, traditional, add ) { - var name; - - if ( Array.isArray( obj ) ) { - - // Serialize array item. - jQuery.each( obj, function( i, v ) { - if ( traditional || rbracket.test( prefix ) ) { - - // Treat each array item as a scalar. - add( prefix, v ); - - } else { - - // Item is non-scalar (array or object), encode its numeric index. - buildParams( - prefix + "[" + ( typeof v === "object" && v != null ? i : "" ) + "]", - v, - traditional, - add - ); - } - } ); - - } else if ( !traditional && toType( obj ) === "object" ) { - - // Serialize object item. - for ( name in obj ) { - buildParams( prefix + "[" + name + "]", obj[ name ], traditional, add ); - } - - } else { - - // Serialize scalar item. - add( prefix, obj ); - } -} - -// Serialize an array of form elements or a set of -// key/values into a query string -jQuery.param = function( a, traditional ) { - var prefix, - s = [], - add = function( key, valueOrFunction ) { - - // If value is a function, invoke it and use its return value - var value = isFunction( valueOrFunction ) ? - valueOrFunction() : - valueOrFunction; - - s[ s.length ] = encodeURIComponent( key ) + "=" + - encodeURIComponent( value == null ? "" : value ); - }; - - if ( a == null ) { - return ""; - } - - // If an array was passed in, assume that it is an array of form elements. - if ( Array.isArray( a ) || ( a.jquery && !jQuery.isPlainObject( a ) ) ) { - - // Serialize the form elements - jQuery.each( a, function() { - add( this.name, this.value ); - } ); - - } else { - - // If traditional, encode the "old" way (the way 1.3.2 or older - // did it), otherwise encode params recursively. - for ( prefix in a ) { - buildParams( prefix, a[ prefix ], traditional, add ); - } - } - - // Return the resulting serialization - return s.join( "&" ); -}; - -jQuery.fn.extend( { - serialize: function() { - return jQuery.param( this.serializeArray() ); - }, - serializeArray: function() { - return this.map( function() { - - // Can add propHook for "elements" to filter or add form elements - var elements = jQuery.prop( this, "elements" ); - return elements ? jQuery.makeArray( elements ) : this; - } ) - .filter( function() { - var type = this.type; - - // Use .is( ":disabled" ) so that fieldset[disabled] works - return this.name && !jQuery( this ).is( ":disabled" ) && - rsubmittable.test( this.nodeName ) && !rsubmitterTypes.test( type ) && - ( this.checked || !rcheckableType.test( type ) ); - } ) - .map( function( _i, elem ) { - var val = jQuery( this ).val(); - - if ( val == null ) { - return null; - } - - if ( Array.isArray( val ) ) { - return jQuery.map( val, function( val ) { - return { name: elem.name, value: val.replace( rCRLF, "\r\n" ) }; - } ); - } - - return { name: elem.name, value: val.replace( rCRLF, "\r\n" ) }; - } ).get(); - } -} ); - - -var - r20 = /%20/g, - rhash = /#.*$/, - rantiCache = /([?&])_=[^&]*/, - rheaders = /^(.*?):[ \t]*([^\r\n]*)$/mg, - - // #7653, #8125, #8152: local protocol detection - rlocalProtocol = /^(?:about|app|app-storage|.+-extension|file|res|widget):$/, - rnoContent = /^(?:GET|HEAD)$/, - rprotocol = /^\/\//, - - /* Prefilters - * 1) They are useful to introduce custom dataTypes (see ajax/jsonp.js for an example) - * 2) These are called: - * - BEFORE asking for a transport - * - AFTER param serialization (s.data is a string if s.processData is true) - * 3) key is the dataType - * 4) the catchall symbol "*" can be used - * 5) execution will start with transport dataType and THEN continue down to "*" if needed - */ - prefilters = {}, - - /* Transports bindings - * 1) key is the dataType - * 2) the catchall symbol "*" can be used - * 3) selection will start with transport dataType and THEN go to "*" if needed - */ - transports = {}, - - // Avoid comment-prolog char sequence (#10098); must appease lint and evade compression - allTypes = "*/".concat( "*" ), - - // Anchor tag for parsing the document origin - originAnchor = document.createElement( "a" ); - originAnchor.href = location.href; - -// Base "constructor" for jQuery.ajaxPrefilter and jQuery.ajaxTransport -function addToPrefiltersOrTransports( structure ) { - - // dataTypeExpression is optional and defaults to "*" - return function( dataTypeExpression, func ) { - - if ( typeof dataTypeExpression !== "string" ) { - func = dataTypeExpression; - dataTypeExpression = "*"; - } - - var dataType, - i = 0, - dataTypes = dataTypeExpression.toLowerCase().match( rnothtmlwhite ) || []; - - if ( isFunction( func ) ) { - - // For each dataType in the dataTypeExpression - while ( ( dataType = dataTypes[ i++ ] ) ) { - - // Prepend if requested - if ( dataType[ 0 ] === "+" ) { - dataType = dataType.slice( 1 ) || "*"; - ( structure[ dataType ] = structure[ dataType ] || [] ).unshift( func ); - - // Otherwise append - } else { - ( structure[ dataType ] = structure[ dataType ] || [] ).push( func ); - } - } - } - }; -} - -// Base inspection function for prefilters and transports -function inspectPrefiltersOrTransports( structure, options, originalOptions, jqXHR ) { - - var inspected = {}, - seekingTransport = ( structure === transports ); - - function inspect( dataType ) { - var selected; - inspected[ dataType ] = true; - jQuery.each( structure[ dataType ] || [], function( _, prefilterOrFactory ) { - var dataTypeOrTransport = prefilterOrFactory( options, originalOptions, jqXHR ); - if ( typeof dataTypeOrTransport === "string" && - !seekingTransport && !inspected[ dataTypeOrTransport ] ) { - - options.dataTypes.unshift( dataTypeOrTransport ); - inspect( dataTypeOrTransport ); - return false; - } else if ( seekingTransport ) { - return !( selected = dataTypeOrTransport ); - } - } ); - return selected; - } - - return inspect( options.dataTypes[ 0 ] ) || !inspected[ "*" ] && inspect( "*" ); -} - -// A special extend for ajax options -// that takes "flat" options (not to be deep extended) -// Fixes #9887 -function ajaxExtend( target, src ) { - var key, deep, - flatOptions = jQuery.ajaxSettings.flatOptions || {}; - - for ( key in src ) { - if ( src[ key ] !== undefined ) { - ( flatOptions[ key ] ? target : ( deep || ( deep = {} ) ) )[ key ] = src[ key ]; - } - } - if ( deep ) { - jQuery.extend( true, target, deep ); - } - - return target; -} - -/* Handles responses to an ajax request: - * - finds the right dataType (mediates between content-type and expected dataType) - * - returns the corresponding response - */ -function ajaxHandleResponses( s, jqXHR, responses ) { - - var ct, type, finalDataType, firstDataType, - contents = s.contents, - dataTypes = s.dataTypes; - - // Remove auto dataType and get content-type in the process - while ( dataTypes[ 0 ] === "*" ) { - dataTypes.shift(); - if ( ct === undefined ) { - ct = s.mimeType || jqXHR.getResponseHeader( "Content-Type" ); - } - } - - // Check if we're dealing with a known content-type - if ( ct ) { - for ( type in contents ) { - if ( contents[ type ] && contents[ type ].test( ct ) ) { - dataTypes.unshift( type ); - break; - } - } - } - - // Check to see if we have a response for the expected dataType - if ( dataTypes[ 0 ] in responses ) { - finalDataType = dataTypes[ 0 ]; - } else { - - // Try convertible dataTypes - for ( type in responses ) { - if ( !dataTypes[ 0 ] || s.converters[ type + " " + dataTypes[ 0 ] ] ) { - finalDataType = type; - break; - } - if ( !firstDataType ) { - firstDataType = type; - } - } - - // Or just use first one - finalDataType = finalDataType || firstDataType; - } - - // If we found a dataType - // We add the dataType to the list if needed - // and return the corresponding response - if ( finalDataType ) { - if ( finalDataType !== dataTypes[ 0 ] ) { - dataTypes.unshift( finalDataType ); - } - return responses[ finalDataType ]; - } -} - -/* Chain conversions given the request and the original response - * Also sets the responseXXX fields on the jqXHR instance - */ -function ajaxConvert( s, response, jqXHR, isSuccess ) { - var conv2, current, conv, tmp, prev, - converters = {}, - - // Work with a copy of dataTypes in case we need to modify it for conversion - dataTypes = s.dataTypes.slice(); - - // Create converters map with lowercased keys - if ( dataTypes[ 1 ] ) { - for ( conv in s.converters ) { - converters[ conv.toLowerCase() ] = s.converters[ conv ]; - } - } - - current = dataTypes.shift(); - - // Convert to each sequential dataType - while ( current ) { - - if ( s.responseFields[ current ] ) { - jqXHR[ s.responseFields[ current ] ] = response; - } - - // Apply the dataFilter if provided - if ( !prev && isSuccess && s.dataFilter ) { - response = s.dataFilter( response, s.dataType ); - } - - prev = current; - current = dataTypes.shift(); - - if ( current ) { - - // There's only work to do if current dataType is non-auto - if ( current === "*" ) { - - current = prev; - - // Convert response if prev dataType is non-auto and differs from current - } else if ( prev !== "*" && prev !== current ) { - - // Seek a direct converter - conv = converters[ prev + " " + current ] || converters[ "* " + current ]; - - // If none found, seek a pair - if ( !conv ) { - for ( conv2 in converters ) { - - // If conv2 outputs current - tmp = conv2.split( " " ); - if ( tmp[ 1 ] === current ) { - - // If prev can be converted to accepted input - conv = converters[ prev + " " + tmp[ 0 ] ] || - converters[ "* " + tmp[ 0 ] ]; - if ( conv ) { - - // Condense equivalence converters - if ( conv === true ) { - conv = converters[ conv2 ]; - - // Otherwise, insert the intermediate dataType - } else if ( converters[ conv2 ] !== true ) { - current = tmp[ 0 ]; - dataTypes.unshift( tmp[ 1 ] ); - } - break; - } - } - } - } - - // Apply converter (if not an equivalence) - if ( conv !== true ) { - - // Unless errors are allowed to bubble, catch and return them - if ( conv && s.throws ) { - response = conv( response ); - } else { - try { - response = conv( response ); - } catch ( e ) { - return { - state: "parsererror", - error: conv ? e : "No conversion from " + prev + " to " + current - }; - } - } - } - } - } - } - - return { state: "success", data: response }; -} - -jQuery.extend( { - - // Counter for holding the number of active queries - active: 0, - - // Last-Modified header cache for next request - lastModified: {}, - etag: {}, - - ajaxSettings: { - url: location.href, - type: "GET", - isLocal: rlocalProtocol.test( location.protocol ), - global: true, - processData: true, - async: true, - contentType: "application/x-www-form-urlencoded; charset=UTF-8", - - /* - timeout: 0, - data: null, - dataType: null, - username: null, - password: null, - cache: null, - throws: false, - traditional: false, - headers: {}, - */ - - accepts: { - "*": allTypes, - text: "text/plain", - html: "text/html", - xml: "application/xml, text/xml", - json: "application/json, text/javascript" - }, - - contents: { - xml: /\bxml\b/, - html: /\bhtml/, - json: /\bjson\b/ - }, - - responseFields: { - xml: "responseXML", - text: "responseText", - json: "responseJSON" - }, - - // Data converters - // Keys separate source (or catchall "*") and destination types with a single space - converters: { - - // Convert anything to text - "* text": String, - - // Text to html (true = no transformation) - "text html": true, - - // Evaluate text as a json expression - "text json": JSON.parse, - - // Parse text as xml - "text xml": jQuery.parseXML - }, - - // For options that shouldn't be deep extended: - // you can add your own custom options here if - // and when you create one that shouldn't be - // deep extended (see ajaxExtend) - flatOptions: { - url: true, - context: true - } - }, - - // Creates a full fledged settings object into target - // with both ajaxSettings and settings fields. - // If target is omitted, writes into ajaxSettings. - ajaxSetup: function( target, settings ) { - return settings ? - - // Building a settings object - ajaxExtend( ajaxExtend( target, jQuery.ajaxSettings ), settings ) : - - // Extending ajaxSettings - ajaxExtend( jQuery.ajaxSettings, target ); - }, - - ajaxPrefilter: addToPrefiltersOrTransports( prefilters ), - ajaxTransport: addToPrefiltersOrTransports( transports ), - - // Main method - ajax: function( url, options ) { - - // If url is an object, simulate pre-1.5 signature - if ( typeof url === "object" ) { - options = url; - url = undefined; - } - - // Force options to be an object - options = options || {}; - - var transport, - - // URL without anti-cache param - cacheURL, - - // Response headers - responseHeadersString, - responseHeaders, - - // timeout handle - timeoutTimer, - - // Url cleanup var - urlAnchor, - - // Request state (becomes false upon send and true upon completion) - completed, - - // To know if global events are to be dispatched - fireGlobals, - - // Loop variable - i, - - // uncached part of the url - uncached, - - // Create the final options object - s = jQuery.ajaxSetup( {}, options ), - - // Callbacks context - callbackContext = s.context || s, - - // Context for global events is callbackContext if it is a DOM node or jQuery collection - globalEventContext = s.context && - ( callbackContext.nodeType || callbackContext.jquery ) ? - jQuery( callbackContext ) : - jQuery.event, - - // Deferreds - deferred = jQuery.Deferred(), - completeDeferred = jQuery.Callbacks( "once memory" ), - - // Status-dependent callbacks - statusCode = s.statusCode || {}, - - // Headers (they are sent all at once) - requestHeaders = {}, - requestHeadersNames = {}, - - // Default abort message - strAbort = "canceled", - - // Fake xhr - jqXHR = { - readyState: 0, - - // Builds headers hashtable if needed - getResponseHeader: function( key ) { - var match; - if ( completed ) { - if ( !responseHeaders ) { - responseHeaders = {}; - while ( ( match = rheaders.exec( responseHeadersString ) ) ) { - responseHeaders[ match[ 1 ].toLowerCase() + " " ] = - ( responseHeaders[ match[ 1 ].toLowerCase() + " " ] || [] ) - .concat( match[ 2 ] ); - } - } - match = responseHeaders[ key.toLowerCase() + " " ]; - } - return match == null ? null : match.join( ", " ); - }, - - // Raw string - getAllResponseHeaders: function() { - return completed ? responseHeadersString : null; - }, - - // Caches the header - setRequestHeader: function( name, value ) { - if ( completed == null ) { - name = requestHeadersNames[ name.toLowerCase() ] = - requestHeadersNames[ name.toLowerCase() ] || name; - requestHeaders[ name ] = value; - } - return this; - }, - - // Overrides response content-type header - overrideMimeType: function( type ) { - if ( completed == null ) { - s.mimeType = type; - } - return this; - }, - - // Status-dependent callbacks - statusCode: function( map ) { - var code; - if ( map ) { - if ( completed ) { - - // Execute the appropriate callbacks - jqXHR.always( map[ jqXHR.status ] ); - } else { - - // Lazy-add the new callbacks in a way that preserves old ones - for ( code in map ) { - statusCode[ code ] = [ statusCode[ code ], map[ code ] ]; - } - } - } - return this; - }, - - // Cancel the request - abort: function( statusText ) { - var finalText = statusText || strAbort; - if ( transport ) { - transport.abort( finalText ); - } - done( 0, finalText ); - return this; - } - }; - - // Attach deferreds - deferred.promise( jqXHR ); - - // Add protocol if not provided (prefilters might expect it) - // Handle falsy url in the settings object (#10093: consistency with old signature) - // We also use the url parameter if available - s.url = ( ( url || s.url || location.href ) + "" ) - .replace( rprotocol, location.protocol + "//" ); - - // Alias method option to type as per ticket #12004 - s.type = options.method || options.type || s.method || s.type; - - // Extract dataTypes list - s.dataTypes = ( s.dataType || "*" ).toLowerCase().match( rnothtmlwhite ) || [ "" ]; - - // A cross-domain request is in order when the origin doesn't match the current origin. - if ( s.crossDomain == null ) { - urlAnchor = document.createElement( "a" ); - - // Support: IE <=8 - 11, Edge 12 - 15 - // IE throws exception on accessing the href property if url is malformed, - // e.g. http://example.com:80x/ - try { - urlAnchor.href = s.url; - - // Support: IE <=8 - 11 only - // Anchor's host property isn't correctly set when s.url is relative - urlAnchor.href = urlAnchor.href; - s.crossDomain = originAnchor.protocol + "//" + originAnchor.host !== - urlAnchor.protocol + "//" + urlAnchor.host; - } catch ( e ) { - - // If there is an error parsing the URL, assume it is crossDomain, - // it can be rejected by the transport if it is invalid - s.crossDomain = true; - } - } - - // Convert data if not already a string - if ( s.data && s.processData && typeof s.data !== "string" ) { - s.data = jQuery.param( s.data, s.traditional ); - } - - // Apply prefilters - inspectPrefiltersOrTransports( prefilters, s, options, jqXHR ); - - // If request was aborted inside a prefilter, stop there - if ( completed ) { - return jqXHR; - } - - // We can fire global events as of now if asked to - // Don't fire events if jQuery.event is undefined in an AMD-usage scenario (#15118) - fireGlobals = jQuery.event && s.global; - - // Watch for a new set of requests - if ( fireGlobals && jQuery.active++ === 0 ) { - jQuery.event.trigger( "ajaxStart" ); - } - - // Uppercase the type - s.type = s.type.toUpperCase(); - - // Determine if request has content - s.hasContent = !rnoContent.test( s.type ); - - // Save the URL in case we're toying with the If-Modified-Since - // and/or If-None-Match header later on - // Remove hash to simplify url manipulation - cacheURL = s.url.replace( rhash, "" ); - - // More options handling for requests with no content - if ( !s.hasContent ) { - - // Remember the hash so we can put it back - uncached = s.url.slice( cacheURL.length ); - - // If data is available and should be processed, append data to url - if ( s.data && ( s.processData || typeof s.data === "string" ) ) { - cacheURL += ( rquery.test( cacheURL ) ? "&" : "?" ) + s.data; - - // #9682: remove data so that it's not used in an eventual retry - delete s.data; - } - - // Add or update anti-cache param if needed - if ( s.cache === false ) { - cacheURL = cacheURL.replace( rantiCache, "$1" ); - uncached = ( rquery.test( cacheURL ) ? "&" : "?" ) + "_=" + ( nonce.guid++ ) + - uncached; - } - - // Put hash and anti-cache on the URL that will be requested (gh-1732) - s.url = cacheURL + uncached; - - // Change '%20' to '+' if this is encoded form body content (gh-2658) - } else if ( s.data && s.processData && - ( s.contentType || "" ).indexOf( "application/x-www-form-urlencoded" ) === 0 ) { - s.data = s.data.replace( r20, "+" ); - } - - // Set the If-Modified-Since and/or If-None-Match header, if in ifModified mode. - if ( s.ifModified ) { - if ( jQuery.lastModified[ cacheURL ] ) { - jqXHR.setRequestHeader( "If-Modified-Since", jQuery.lastModified[ cacheURL ] ); - } - if ( jQuery.etag[ cacheURL ] ) { - jqXHR.setRequestHeader( "If-None-Match", jQuery.etag[ cacheURL ] ); - } - } - - // Set the correct header, if data is being sent - if ( s.data && s.hasContent && s.contentType !== false || options.contentType ) { - jqXHR.setRequestHeader( "Content-Type", s.contentType ); - } - - // Set the Accepts header for the server, depending on the dataType - jqXHR.setRequestHeader( - "Accept", - s.dataTypes[ 0 ] && s.accepts[ s.dataTypes[ 0 ] ] ? - s.accepts[ s.dataTypes[ 0 ] ] + - ( s.dataTypes[ 0 ] !== "*" ? ", " + allTypes + "; q=0.01" : "" ) : - s.accepts[ "*" ] - ); - - // Check for headers option - for ( i in s.headers ) { - jqXHR.setRequestHeader( i, s.headers[ i ] ); - } - - // Allow custom headers/mimetypes and early abort - if ( s.beforeSend && - ( s.beforeSend.call( callbackContext, jqXHR, s ) === false || completed ) ) { - - // Abort if not done already and return - return jqXHR.abort(); - } - - // Aborting is no longer a cancellation - strAbort = "abort"; - - // Install callbacks on deferreds - completeDeferred.add( s.complete ); - jqXHR.done( s.success ); - jqXHR.fail( s.error ); - - // Get transport - transport = inspectPrefiltersOrTransports( transports, s, options, jqXHR ); - - // If no transport, we auto-abort - if ( !transport ) { - done( -1, "No Transport" ); - } else { - jqXHR.readyState = 1; - - // Send global event - if ( fireGlobals ) { - globalEventContext.trigger( "ajaxSend", [ jqXHR, s ] ); - } - - // If request was aborted inside ajaxSend, stop there - if ( completed ) { - return jqXHR; - } - - // Timeout - if ( s.async && s.timeout > 0 ) { - timeoutTimer = window.setTimeout( function() { - jqXHR.abort( "timeout" ); - }, s.timeout ); - } - - try { - completed = false; - transport.send( requestHeaders, done ); - } catch ( e ) { - - // Rethrow post-completion exceptions - if ( completed ) { - throw e; - } - - // Propagate others as results - done( -1, e ); - } - } - - // Callback for when everything is done - function done( status, nativeStatusText, responses, headers ) { - var isSuccess, success, error, response, modified, - statusText = nativeStatusText; - - // Ignore repeat invocations - if ( completed ) { - return; - } - - completed = true; - - // Clear timeout if it exists - if ( timeoutTimer ) { - window.clearTimeout( timeoutTimer ); - } - - // Dereference transport for early garbage collection - // (no matter how long the jqXHR object will be used) - transport = undefined; - - // Cache response headers - responseHeadersString = headers || ""; - - // Set readyState - jqXHR.readyState = status > 0 ? 4 : 0; - - // Determine if successful - isSuccess = status >= 200 && status < 300 || status === 304; - - // Get response data - if ( responses ) { - response = ajaxHandleResponses( s, jqXHR, responses ); - } - - // Use a noop converter for missing script - if ( !isSuccess && jQuery.inArray( "script", s.dataTypes ) > -1 ) { - s.converters[ "text script" ] = function() {}; - } - - // Convert no matter what (that way responseXXX fields are always set) - response = ajaxConvert( s, response, jqXHR, isSuccess ); - - // If successful, handle type chaining - if ( isSuccess ) { - - // Set the If-Modified-Since and/or If-None-Match header, if in ifModified mode. - if ( s.ifModified ) { - modified = jqXHR.getResponseHeader( "Last-Modified" ); - if ( modified ) { - jQuery.lastModified[ cacheURL ] = modified; - } - modified = jqXHR.getResponseHeader( "etag" ); - if ( modified ) { - jQuery.etag[ cacheURL ] = modified; - } - } - - // if no content - if ( status === 204 || s.type === "HEAD" ) { - statusText = "nocontent"; - - // if not modified - } else if ( status === 304 ) { - statusText = "notmodified"; - - // If we have data, let's convert it - } else { - statusText = response.state; - success = response.data; - error = response.error; - isSuccess = !error; - } - } else { - - // Extract error from statusText and normalize for non-aborts - error = statusText; - if ( status || !statusText ) { - statusText = "error"; - if ( status < 0 ) { - status = 0; - } - } - } - - // Set data for the fake xhr object - jqXHR.status = status; - jqXHR.statusText = ( nativeStatusText || statusText ) + ""; - - // Success/Error - if ( isSuccess ) { - deferred.resolveWith( callbackContext, [ success, statusText, jqXHR ] ); - } else { - deferred.rejectWith( callbackContext, [ jqXHR, statusText, error ] ); - } - - // Status-dependent callbacks - jqXHR.statusCode( statusCode ); - statusCode = undefined; - - if ( fireGlobals ) { - globalEventContext.trigger( isSuccess ? "ajaxSuccess" : "ajaxError", - [ jqXHR, s, isSuccess ? success : error ] ); - } - - // Complete - completeDeferred.fireWith( callbackContext, [ jqXHR, statusText ] ); - - if ( fireGlobals ) { - globalEventContext.trigger( "ajaxComplete", [ jqXHR, s ] ); - - // Handle the global AJAX counter - if ( !( --jQuery.active ) ) { - jQuery.event.trigger( "ajaxStop" ); - } - } - } - - return jqXHR; - }, - - getJSON: function( url, data, callback ) { - return jQuery.get( url, data, callback, "json" ); - }, - - getScript: function( url, callback ) { - return jQuery.get( url, undefined, callback, "script" ); - } -} ); - -jQuery.each( [ "get", "post" ], function( _i, method ) { - jQuery[ method ] = function( url, data, callback, type ) { - - // Shift arguments if data argument was omitted - if ( isFunction( data ) ) { - type = type || callback; - callback = data; - data = undefined; - } - - // The url can be an options object (which then must have .url) - return jQuery.ajax( jQuery.extend( { - url: url, - type: method, - dataType: type, - data: data, - success: callback - }, jQuery.isPlainObject( url ) && url ) ); - }; -} ); - -jQuery.ajaxPrefilter( function( s ) { - var i; - for ( i in s.headers ) { - if ( i.toLowerCase() === "content-type" ) { - s.contentType = s.headers[ i ] || ""; - } - } -} ); - - -jQuery._evalUrl = function( url, options, doc ) { - return jQuery.ajax( { - url: url, - - // Make this explicit, since user can override this through ajaxSetup (#11264) - type: "GET", - dataType: "script", - cache: true, - async: false, - global: false, - - // Only evaluate the response if it is successful (gh-4126) - // dataFilter is not invoked for failure responses, so using it instead - // of the default converter is kludgy but it works. - converters: { - "text script": function() {} - }, - dataFilter: function( response ) { - jQuery.globalEval( response, options, doc ); - } - } ); -}; - - -jQuery.fn.extend( { - wrapAll: function( html ) { - var wrap; - - if ( this[ 0 ] ) { - if ( isFunction( html ) ) { - html = html.call( this[ 0 ] ); - } - - // The elements to wrap the target around - wrap = jQuery( html, this[ 0 ].ownerDocument ).eq( 0 ).clone( true ); - - if ( this[ 0 ].parentNode ) { - wrap.insertBefore( this[ 0 ] ); - } - - wrap.map( function() { - var elem = this; - - while ( elem.firstElementChild ) { - elem = elem.firstElementChild; - } - - return elem; - } ).append( this ); - } - - return this; - }, - - wrapInner: function( html ) { - if ( isFunction( html ) ) { - return this.each( function( i ) { - jQuery( this ).wrapInner( html.call( this, i ) ); - } ); - } - - return this.each( function() { - var self = jQuery( this ), - contents = self.contents(); - - if ( contents.length ) { - contents.wrapAll( html ); - - } else { - self.append( html ); - } - } ); - }, - - wrap: function( html ) { - var htmlIsFunction = isFunction( html ); - - return this.each( function( i ) { - jQuery( this ).wrapAll( htmlIsFunction ? html.call( this, i ) : html ); - } ); - }, - - unwrap: function( selector ) { - this.parent( selector ).not( "body" ).each( function() { - jQuery( this ).replaceWith( this.childNodes ); - } ); - return this; - } -} ); - - -jQuery.expr.pseudos.hidden = function( elem ) { - return !jQuery.expr.pseudos.visible( elem ); -}; -jQuery.expr.pseudos.visible = function( elem ) { - return !!( elem.offsetWidth || elem.offsetHeight || elem.getClientRects().length ); -}; - - - - -jQuery.ajaxSettings.xhr = function() { - try { - return new window.XMLHttpRequest(); - } catch ( e ) {} -}; - -var xhrSuccessStatus = { - - // File protocol always yields status code 0, assume 200 - 0: 200, - - // Support: IE <=9 only - // #1450: sometimes IE returns 1223 when it should be 204 - 1223: 204 - }, - xhrSupported = jQuery.ajaxSettings.xhr(); - -support.cors = !!xhrSupported && ( "withCredentials" in xhrSupported ); -support.ajax = xhrSupported = !!xhrSupported; - -jQuery.ajaxTransport( function( options ) { - var callback, errorCallback; - - // Cross domain only allowed if supported through XMLHttpRequest - if ( support.cors || xhrSupported && !options.crossDomain ) { - return { - send: function( headers, complete ) { - var i, - xhr = options.xhr(); - - xhr.open( - options.type, - options.url, - options.async, - options.username, - options.password - ); - - // Apply custom fields if provided - if ( options.xhrFields ) { - for ( i in options.xhrFields ) { - xhr[ i ] = options.xhrFields[ i ]; - } - } - - // Override mime type if needed - if ( options.mimeType && xhr.overrideMimeType ) { - xhr.overrideMimeType( options.mimeType ); - } - - // X-Requested-With header - // For cross-domain requests, seeing as conditions for a preflight are - // akin to a jigsaw puzzle, we simply never set it to be sure. - // (it can always be set on a per-request basis or even using ajaxSetup) - // For same-domain requests, won't change header if already provided. - if ( !options.crossDomain && !headers[ "X-Requested-With" ] ) { - headers[ "X-Requested-With" ] = "XMLHttpRequest"; - } - - // Set headers - for ( i in headers ) { - xhr.setRequestHeader( i, headers[ i ] ); - } - - // Callback - callback = function( type ) { - return function() { - if ( callback ) { - callback = errorCallback = xhr.onload = - xhr.onerror = xhr.onabort = xhr.ontimeout = - xhr.onreadystatechange = null; - - if ( type === "abort" ) { - xhr.abort(); - } else if ( type === "error" ) { - - // Support: IE <=9 only - // On a manual native abort, IE9 throws - // errors on any property access that is not readyState - if ( typeof xhr.status !== "number" ) { - complete( 0, "error" ); - } else { - complete( - - // File: protocol always yields status 0; see #8605, #14207 - xhr.status, - xhr.statusText - ); - } - } else { - complete( - xhrSuccessStatus[ xhr.status ] || xhr.status, - xhr.statusText, - - // Support: IE <=9 only - // IE9 has no XHR2 but throws on binary (trac-11426) - // For XHR2 non-text, let the caller handle it (gh-2498) - ( xhr.responseType || "text" ) !== "text" || - typeof xhr.responseText !== "string" ? - { binary: xhr.response } : - { text: xhr.responseText }, - xhr.getAllResponseHeaders() - ); - } - } - }; - }; - - // Listen to events - xhr.onload = callback(); - errorCallback = xhr.onerror = xhr.ontimeout = callback( "error" ); - - // Support: IE 9 only - // Use onreadystatechange to replace onabort - // to handle uncaught aborts - if ( xhr.onabort !== undefined ) { - xhr.onabort = errorCallback; - } else { - xhr.onreadystatechange = function() { - - // Check readyState before timeout as it changes - if ( xhr.readyState === 4 ) { - - // Allow onerror to be called first, - // but that will not handle a native abort - // Also, save errorCallback to a variable - // as xhr.onerror cannot be accessed - window.setTimeout( function() { - if ( callback ) { - errorCallback(); - } - } ); - } - }; - } - - // Create the abort callback - callback = callback( "abort" ); - - try { - - // Do send the request (this may raise an exception) - xhr.send( options.hasContent && options.data || null ); - } catch ( e ) { - - // #14683: Only rethrow if this hasn't been notified as an error yet - if ( callback ) { - throw e; - } - } - }, - - abort: function() { - if ( callback ) { - callback(); - } - } - }; - } -} ); - - - - -// Prevent auto-execution of scripts when no explicit dataType was provided (See gh-2432) -jQuery.ajaxPrefilter( function( s ) { - if ( s.crossDomain ) { - s.contents.script = false; - } -} ); - -// Install script dataType -jQuery.ajaxSetup( { - accepts: { - script: "text/javascript, application/javascript, " + - "application/ecmascript, application/x-ecmascript" - }, - contents: { - script: /\b(?:java|ecma)script\b/ - }, - converters: { - "text script": function( text ) { - jQuery.globalEval( text ); - return text; - } - } -} ); - -// Handle cache's special case and crossDomain -jQuery.ajaxPrefilter( "script", function( s ) { - if ( s.cache === undefined ) { - s.cache = false; - } - if ( s.crossDomain ) { - s.type = "GET"; - } -} ); - -// Bind script tag hack transport -jQuery.ajaxTransport( "script", function( s ) { - - // This transport only deals with cross domain or forced-by-attrs requests - if ( s.crossDomain || s.scriptAttrs ) { - var script, callback; - return { - send: function( _, complete ) { - script = jQuery( " -{% endmacro %} diff --git a/docs/_static/scripts/pydata-sphinx-theme.js b/docs/_static/scripts/pydata-sphinx-theme.js deleted file mode 100644 index 0e00c4cad..000000000 --- a/docs/_static/scripts/pydata-sphinx-theme.js +++ /dev/null @@ -1,32 +0,0 @@ -!function(t){var e={};function n(i){if(e[i])return e[i].exports;var o=e[i]={i:i,l:!1,exports:{}};return t[i].call(o.exports,o,o.exports,n),o.l=!0,o.exports}n.m=t,n.c=e,n.d=function(t,e,i){n.o(t,e)||Object.defineProperty(t,e,{enumerable:!0,get:i})},n.r=function(t){"undefined"!=typeof Symbol&&Symbol.toStringTag&&Object.defineProperty(t,Symbol.toStringTag,{value:"Module"}),Object.defineProperty(t,"__esModule",{value:!0})},n.t=function(t,e){if(1&e&&(t=n(t)),8&e)return t;if(4&e&&"object"==typeof t&&t&&t.__esModule)return t;var i=Object.create(null);if(n.r(i),Object.defineProperty(i,"default",{enumerable:!0,value:t}),2&e&&"string"!=typeof t)for(var o in t)n.d(i,o,function(e){return t[e]}.bind(null,o));return i},n.n=function(t){var e=t&&t.__esModule?function(){return t.default}:function(){return t};return n.d(e,"a",e),e},n.o=function(t,e){return Object.prototype.hasOwnProperty.call(t,e)},n.p="",n(n.s=2)}([function(t,e){t.exports=jQuery},function(t,e,n){"use strict";n.r(e),function(t){ -/**! - * @fileOverview Kickass library to create and place poppers near their reference elements. - * @version 1.16.1 - * @license - * Copyright (c) 2016 Federico Zivolo and contributors - * - * Permission is hereby granted, free of charge, to any person obtaining a copy - * of this software and associated documentation files (the "Software"), to deal - * in the Software without restriction, including without limitation the rights - * to use, copy, modify, merge, publish, distribute, sublicense, and/or sell - * copies of the Software, and to permit persons to whom the Software is - * furnished to do so, subject to the following conditions: - * - * The above copyright notice and this permission notice shall be included in all - * copies or substantial portions of the Software. - * - * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR - * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, - * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE - * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER - * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, - * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE - * SOFTWARE. - */ -var n="undefined"!=typeof window&&"undefined"!=typeof document&&"undefined"!=typeof navigator,i=function(){for(var t=["Edge","Trident","Firefox"],e=0;e=0)return 1;return 0}();var o=n&&window.Promise?function(t){var e=!1;return function(){e||(e=!0,window.Promise.resolve().then((function(){e=!1,t()})))}}:function(t){var e=!1;return function(){e||(e=!0,setTimeout((function(){e=!1,t()}),i))}};function r(t){return t&&"[object Function]"==={}.toString.call(t)}function a(t,e){if(1!==t.nodeType)return[];var n=t.ownerDocument.defaultView.getComputedStyle(t,null);return e?n[e]:n}function s(t){return"HTML"===t.nodeName?t:t.parentNode||t.host}function l(t){if(!t)return document.body;switch(t.nodeName){case"HTML":case"BODY":return t.ownerDocument.body;case"#document":return t.body}var e=a(t),n=e.overflow,i=e.overflowX,o=e.overflowY;return/(auto|scroll|overlay)/.test(n+o+i)?t:l(s(t))}function u(t){return t&&t.referenceNode?t.referenceNode:t}var f=n&&!(!window.MSInputMethodContext||!document.documentMode),d=n&&/MSIE 10/.test(navigator.userAgent);function c(t){return 11===t?f:10===t?d:f||d}function h(t){if(!t)return document.documentElement;for(var e=c(10)?document.body:null,n=t.offsetParent||null;n===e&&t.nextElementSibling;)n=(t=t.nextElementSibling).offsetParent;var i=n&&n.nodeName;return i&&"BODY"!==i&&"HTML"!==i?-1!==["TH","TD","TABLE"].indexOf(n.nodeName)&&"static"===a(n,"position")?h(n):n:t?t.ownerDocument.documentElement:document.documentElement}function p(t){return null!==t.parentNode?p(t.parentNode):t}function m(t,e){if(!(t&&t.nodeType&&e&&e.nodeType))return document.documentElement;var n=t.compareDocumentPosition(e)&Node.DOCUMENT_POSITION_FOLLOWING,i=n?t:e,o=n?e:t,r=document.createRange();r.setStart(i,0),r.setEnd(o,0);var a,s,l=r.commonAncestorContainer;if(t!==l&&e!==l||i.contains(o))return"BODY"===(s=(a=l).nodeName)||"HTML"!==s&&h(a.firstElementChild)!==a?h(l):l;var u=p(t);return u.host?m(u.host,e):m(t,p(e).host)}function g(t){var e=arguments.length>1&&void 0!==arguments[1]?arguments[1]:"top",n="top"===e?"scrollTop":"scrollLeft",i=t.nodeName;if("BODY"===i||"HTML"===i){var o=t.ownerDocument.documentElement,r=t.ownerDocument.scrollingElement||o;return r[n]}return t[n]}function v(t,e){var n=arguments.length>2&&void 0!==arguments[2]&&arguments[2],i=g(e,"top"),o=g(e,"left"),r=n?-1:1;return t.top+=i*r,t.bottom+=i*r,t.left+=o*r,t.right+=o*r,t}function _(t,e){var n="x"===e?"Left":"Top",i="Left"===n?"Right":"Bottom";return parseFloat(t["border"+n+"Width"])+parseFloat(t["border"+i+"Width"])}function b(t,e,n,i){return Math.max(e["offset"+t],e["scroll"+t],n["client"+t],n["offset"+t],n["scroll"+t],c(10)?parseInt(n["offset"+t])+parseInt(i["margin"+("Height"===t?"Top":"Left")])+parseInt(i["margin"+("Height"===t?"Bottom":"Right")]):0)}function y(t){var e=t.body,n=t.documentElement,i=c(10)&&getComputedStyle(n);return{height:b("Height",e,n,i),width:b("Width",e,n,i)}}var w=function(t,e){if(!(t instanceof e))throw new TypeError("Cannot call a class as a function")},E=function(){function t(t,e){for(var n=0;n2&&void 0!==arguments[2]&&arguments[2],i=c(10),o="HTML"===e.nodeName,r=N(t),s=N(e),u=l(t),f=a(e),d=parseFloat(f.borderTopWidth),h=parseFloat(f.borderLeftWidth);n&&o&&(s.top=Math.max(s.top,0),s.left=Math.max(s.left,0));var p=S({top:r.top-s.top-d,left:r.left-s.left-h,width:r.width,height:r.height});if(p.marginTop=0,p.marginLeft=0,!i&&o){var m=parseFloat(f.marginTop),g=parseFloat(f.marginLeft);p.top-=d-m,p.bottom-=d-m,p.left-=h-g,p.right-=h-g,p.marginTop=m,p.marginLeft=g}return(i&&!n?e.contains(u):e===u&&"BODY"!==u.nodeName)&&(p=v(p,e)),p}function k(t){var e=arguments.length>1&&void 0!==arguments[1]&&arguments[1],n=t.ownerDocument.documentElement,i=D(t,n),o=Math.max(n.clientWidth,window.innerWidth||0),r=Math.max(n.clientHeight,window.innerHeight||0),a=e?0:g(n),s=e?0:g(n,"left"),l={top:a-i.top+i.marginTop,left:s-i.left+i.marginLeft,width:o,height:r};return S(l)}function A(t){var e=t.nodeName;if("BODY"===e||"HTML"===e)return!1;if("fixed"===a(t,"position"))return!0;var n=s(t);return!!n&&A(n)}function I(t){if(!t||!t.parentElement||c())return document.documentElement;for(var e=t.parentElement;e&&"none"===a(e,"transform");)e=e.parentElement;return e||document.documentElement}function O(t,e,n,i){var o=arguments.length>4&&void 0!==arguments[4]&&arguments[4],r={top:0,left:0},a=o?I(t):m(t,u(e));if("viewport"===i)r=k(a,o);else{var f=void 0;"scrollParent"===i?"BODY"===(f=l(s(e))).nodeName&&(f=t.ownerDocument.documentElement):f="window"===i?t.ownerDocument.documentElement:i;var d=D(f,a,o);if("HTML"!==f.nodeName||A(a))r=d;else{var c=y(t.ownerDocument),h=c.height,p=c.width;r.top+=d.top-d.marginTop,r.bottom=h+d.top,r.left+=d.left-d.marginLeft,r.right=p+d.left}}var g="number"==typeof(n=n||0);return r.left+=g?n:n.left||0,r.top+=g?n:n.top||0,r.right-=g?n:n.right||0,r.bottom-=g?n:n.bottom||0,r}function x(t){return t.width*t.height}function j(t,e,n,i,o){var r=arguments.length>5&&void 0!==arguments[5]?arguments[5]:0;if(-1===t.indexOf("auto"))return t;var a=O(n,i,r,o),s={top:{width:a.width,height:e.top-a.top},right:{width:a.right-e.right,height:a.height},bottom:{width:a.width,height:a.bottom-e.bottom},left:{width:e.left-a.left,height:a.height}},l=Object.keys(s).map((function(t){return C({key:t},s[t],{area:x(s[t])})})).sort((function(t,e){return e.area-t.area})),u=l.filter((function(t){var e=t.width,i=t.height;return e>=n.clientWidth&&i>=n.clientHeight})),f=u.length>0?u[0].key:l[0].key,d=t.split("-")[1];return f+(d?"-"+d:"")}function L(t,e,n){var i=arguments.length>3&&void 0!==arguments[3]?arguments[3]:null,o=i?I(e):m(e,u(n));return D(n,o,i)}function P(t){var e=t.ownerDocument.defaultView.getComputedStyle(t),n=parseFloat(e.marginTop||0)+parseFloat(e.marginBottom||0),i=parseFloat(e.marginLeft||0)+parseFloat(e.marginRight||0);return{width:t.offsetWidth+i,height:t.offsetHeight+n}}function F(t){var e={left:"right",right:"left",bottom:"top",top:"bottom"};return t.replace(/left|right|bottom|top/g,(function(t){return e[t]}))}function R(t,e,n){n=n.split("-")[0];var i=P(t),o={width:i.width,height:i.height},r=-1!==["right","left"].indexOf(n),a=r?"top":"left",s=r?"left":"top",l=r?"height":"width",u=r?"width":"height";return o[a]=e[a]+e[l]/2-i[l]/2,o[s]=n===s?e[s]-i[u]:e[F(s)],o}function M(t,e){return Array.prototype.find?t.find(e):t.filter(e)[0]}function B(t,e,n){return(void 0===n?t:t.slice(0,function(t,e,n){if(Array.prototype.findIndex)return t.findIndex((function(t){return t[e]===n}));var i=M(t,(function(t){return t[e]===n}));return t.indexOf(i)}(t,"name",n))).forEach((function(t){t.function&&console.warn("`modifier.function` is deprecated, use `modifier.fn`!");var n=t.function||t.fn;t.enabled&&r(n)&&(e.offsets.popper=S(e.offsets.popper),e.offsets.reference=S(e.offsets.reference),e=n(e,t))})),e}function H(){if(!this.state.isDestroyed){var t={instance:this,styles:{},arrowStyles:{},attributes:{},flipped:!1,offsets:{}};t.offsets.reference=L(this.state,this.popper,this.reference,this.options.positionFixed),t.placement=j(this.options.placement,t.offsets.reference,this.popper,this.reference,this.options.modifiers.flip.boundariesElement,this.options.modifiers.flip.padding),t.originalPlacement=t.placement,t.positionFixed=this.options.positionFixed,t.offsets.popper=R(this.popper,t.offsets.reference,t.placement),t.offsets.popper.position=this.options.positionFixed?"fixed":"absolute",t=B(this.modifiers,t),this.state.isCreated?this.options.onUpdate(t):(this.state.isCreated=!0,this.options.onCreate(t))}}function q(t,e){return t.some((function(t){var n=t.name;return t.enabled&&n===e}))}function Q(t){for(var e=[!1,"ms","Webkit","Moz","O"],n=t.charAt(0).toUpperCase()+t.slice(1),i=0;i1&&void 0!==arguments[1]&&arguments[1],n=Z.indexOf(t),i=Z.slice(n+1).concat(Z.slice(0,n));return e?i.reverse():i}var et="flip",nt="clockwise",it="counterclockwise";function ot(t,e,n,i){var o=[0,0],r=-1!==["right","left"].indexOf(i),a=t.split(/(\+|\-)/).map((function(t){return t.trim()})),s=a.indexOf(M(a,(function(t){return-1!==t.search(/,|\s/)})));a[s]&&-1===a[s].indexOf(",")&&console.warn("Offsets separated by white space(s) are deprecated, use a comma (,) instead.");var l=/\s*,\s*|\s+/,u=-1!==s?[a.slice(0,s).concat([a[s].split(l)[0]]),[a[s].split(l)[1]].concat(a.slice(s+1))]:[a];return(u=u.map((function(t,i){var o=(1===i?!r:r)?"height":"width",a=!1;return t.reduce((function(t,e){return""===t[t.length-1]&&-1!==["+","-"].indexOf(e)?(t[t.length-1]=e,a=!0,t):a?(t[t.length-1]+=e,a=!1,t):t.concat(e)}),[]).map((function(t){return function(t,e,n,i){var o=t.match(/((?:\-|\+)?\d*\.?\d*)(.*)/),r=+o[1],a=o[2];if(!r)return t;if(0===a.indexOf("%")){var s=void 0;switch(a){case"%p":s=n;break;case"%":case"%r":default:s=i}return S(s)[e]/100*r}if("vh"===a||"vw"===a){return("vh"===a?Math.max(document.documentElement.clientHeight,window.innerHeight||0):Math.max(document.documentElement.clientWidth,window.innerWidth||0))/100*r}return r}(t,o,e,n)}))}))).forEach((function(t,e){t.forEach((function(n,i){K(n)&&(o[e]+=n*("-"===t[i-1]?-1:1))}))})),o}var rt={placement:"bottom",positionFixed:!1,eventsEnabled:!0,removeOnDestroy:!1,onCreate:function(){},onUpdate:function(){},modifiers:{shift:{order:100,enabled:!0,fn:function(t){var e=t.placement,n=e.split("-")[0],i=e.split("-")[1];if(i){var o=t.offsets,r=o.reference,a=o.popper,s=-1!==["bottom","top"].indexOf(n),l=s?"left":"top",u=s?"width":"height",f={start:T({},l,r[l]),end:T({},l,r[l]+r[u]-a[u])};t.offsets.popper=C({},a,f[i])}return t}},offset:{order:200,enabled:!0,fn:function(t,e){var n=e.offset,i=t.placement,o=t.offsets,r=o.popper,a=o.reference,s=i.split("-")[0],l=void 0;return l=K(+n)?[+n,0]:ot(n,r,a,s),"left"===s?(r.top+=l[0],r.left-=l[1]):"right"===s?(r.top+=l[0],r.left+=l[1]):"top"===s?(r.left+=l[0],r.top-=l[1]):"bottom"===s&&(r.left+=l[0],r.top+=l[1]),t.popper=r,t},offset:0},preventOverflow:{order:300,enabled:!0,fn:function(t,e){var n=e.boundariesElement||h(t.instance.popper);t.instance.reference===n&&(n=h(n));var i=Q("transform"),o=t.instance.popper.style,r=o.top,a=o.left,s=o[i];o.top="",o.left="",o[i]="";var l=O(t.instance.popper,t.instance.reference,e.padding,n,t.positionFixed);o.top=r,o.left=a,o[i]=s,e.boundaries=l;var u=e.priority,f=t.offsets.popper,d={primary:function(t){var n=f[t];return f[t]l[t]&&!e.escapeWithReference&&(i=Math.min(f[n],l[t]-("right"===t?f.width:f.height))),T({},n,i)}};return u.forEach((function(t){var e=-1!==["left","top"].indexOf(t)?"primary":"secondary";f=C({},f,d[e](t))})),t.offsets.popper=f,t},priority:["left","right","top","bottom"],padding:5,boundariesElement:"scrollParent"},keepTogether:{order:400,enabled:!0,fn:function(t){var e=t.offsets,n=e.popper,i=e.reference,o=t.placement.split("-")[0],r=Math.floor,a=-1!==["top","bottom"].indexOf(o),s=a?"right":"bottom",l=a?"left":"top",u=a?"width":"height";return n[s]r(i[s])&&(t.offsets.popper[l]=r(i[s])),t}},arrow:{order:500,enabled:!0,fn:function(t,e){var n;if(!G(t.instance.modifiers,"arrow","keepTogether"))return t;var i=e.element;if("string"==typeof i){if(!(i=t.instance.popper.querySelector(i)))return t}else if(!t.instance.popper.contains(i))return console.warn("WARNING: `arrow.element` must be child of its popper element!"),t;var o=t.placement.split("-")[0],r=t.offsets,s=r.popper,l=r.reference,u=-1!==["left","right"].indexOf(o),f=u?"height":"width",d=u?"Top":"Left",c=d.toLowerCase(),h=u?"left":"top",p=u?"bottom":"right",m=P(i)[f];l[p]-ms[p]&&(t.offsets.popper[c]+=l[c]+m-s[p]),t.offsets.popper=S(t.offsets.popper);var g=l[c]+l[f]/2-m/2,v=a(t.instance.popper),_=parseFloat(v["margin"+d]),b=parseFloat(v["border"+d+"Width"]),y=g-t.offsets.popper[c]-_-b;return y=Math.max(Math.min(s[f]-m,y),0),t.arrowElement=i,t.offsets.arrow=(T(n={},c,Math.round(y)),T(n,h,""),n),t},element:"[x-arrow]"},flip:{order:600,enabled:!0,fn:function(t,e){if(q(t.instance.modifiers,"inner"))return t;if(t.flipped&&t.placement===t.originalPlacement)return t;var n=O(t.instance.popper,t.instance.reference,e.padding,e.boundariesElement,t.positionFixed),i=t.placement.split("-")[0],o=F(i),r=t.placement.split("-")[1]||"",a=[];switch(e.behavior){case et:a=[i,o];break;case nt:a=tt(i);break;case it:a=tt(i,!0);break;default:a=e.behavior}return a.forEach((function(s,l){if(i!==s||a.length===l+1)return t;i=t.placement.split("-")[0],o=F(i);var u=t.offsets.popper,f=t.offsets.reference,d=Math.floor,c="left"===i&&d(u.right)>d(f.left)||"right"===i&&d(u.left)d(f.top)||"bottom"===i&&d(u.top)d(n.right),m=d(u.top)d(n.bottom),v="left"===i&&h||"right"===i&&p||"top"===i&&m||"bottom"===i&&g,_=-1!==["top","bottom"].indexOf(i),b=!!e.flipVariations&&(_&&"start"===r&&h||_&&"end"===r&&p||!_&&"start"===r&&m||!_&&"end"===r&&g),y=!!e.flipVariationsByContent&&(_&&"start"===r&&p||_&&"end"===r&&h||!_&&"start"===r&&g||!_&&"end"===r&&m),w=b||y;(c||v||w)&&(t.flipped=!0,(c||v)&&(i=a[l+1]),w&&(r=function(t){return"end"===t?"start":"start"===t?"end":t}(r)),t.placement=i+(r?"-"+r:""),t.offsets.popper=C({},t.offsets.popper,R(t.instance.popper,t.offsets.reference,t.placement)),t=B(t.instance.modifiers,t,"flip"))})),t},behavior:"flip",padding:5,boundariesElement:"viewport",flipVariations:!1,flipVariationsByContent:!1},inner:{order:700,enabled:!1,fn:function(t){var e=t.placement,n=e.split("-")[0],i=t.offsets,o=i.popper,r=i.reference,a=-1!==["left","right"].indexOf(n),s=-1===["top","left"].indexOf(n);return o[a?"left":"top"]=r[n]-(s?o[a?"width":"height"]:0),t.placement=F(e),t.offsets.popper=S(o),t}},hide:{order:800,enabled:!0,fn:function(t){if(!G(t.instance.modifiers,"hide","preventOverflow"))return t;var e=t.offsets.reference,n=M(t.instance.modifiers,(function(t){return"preventOverflow"===t.name})).boundaries;if(e.bottomn.right||e.top>n.bottom||e.right2&&void 0!==arguments[2]?arguments[2]:{};w(this,t),this.scheduleUpdate=function(){return requestAnimationFrame(i.update)},this.update=o(this.update.bind(this)),this.options=C({},t.Defaults,a),this.state={isDestroyed:!1,isCreated:!1,scrollParents:[]},this.reference=e&&e.jquery?e[0]:e,this.popper=n&&n.jquery?n[0]:n,this.options.modifiers={},Object.keys(C({},t.Defaults.modifiers,a.modifiers)).forEach((function(e){i.options.modifiers[e]=C({},t.Defaults.modifiers[e]||{},a.modifiers?a.modifiers[e]:{})})),this.modifiers=Object.keys(this.options.modifiers).map((function(t){return C({name:t},i.options.modifiers[t])})).sort((function(t,e){return t.order-e.order})),this.modifiers.forEach((function(t){t.enabled&&r(t.onLoad)&&t.onLoad(i.reference,i.popper,i.options,t,i.state)})),this.update();var s=this.options.eventsEnabled;s&&this.enableEventListeners(),this.state.eventsEnabled=s}return E(t,[{key:"update",value:function(){return H.call(this)}},{key:"destroy",value:function(){return W.call(this)}},{key:"enableEventListeners",value:function(){return Y.call(this)}},{key:"disableEventListeners",value:function(){return z.call(this)}}]),t}();at.Utils=("undefined"!=typeof window?window:t).PopperUtils,at.placements=J,at.Defaults=rt,e.default=at}.call(this,n(4))},function(t,e,n){t.exports=n(5)},function(t,e,n){ -/*! - * Bootstrap v4.6.1 (https://getbootstrap.com/) - * Copyright 2011-2021 The Bootstrap Authors (https://github.com/twbs/bootstrap/graphs/contributors) - * Licensed under MIT (https://github.com/twbs/bootstrap/blob/main/LICENSE) - */ -!function(t,e,n){"use strict";function i(t){return t&&"object"==typeof t&&"default"in t?t:{default:t}}var o=i(e),r=i(n);function a(t,e){for(var n=0;n=4)throw new Error("Bootstrap's JavaScript requires at least jQuery v1.9.1 but less than v4.0.0")}};d.jQueryDetection(),o.default.fn.emulateTransitionEnd=f,o.default.event.special[d.TRANSITION_END]={bindType:"transitionend",delegateType:"transitionend",handle:function(t){if(o.default(t.target).is(this))return t.handleObj.handler.apply(this,arguments)}};var c=o.default.fn.alert,h=function(){function t(t){this._element=t}var e=t.prototype;return e.close=function(t){var e=this._element;t&&(e=this._getRootElement(t)),this._triggerCloseEvent(e).isDefaultPrevented()||this._removeElement(e)},e.dispose=function(){o.default.removeData(this._element,"bs.alert"),this._element=null},e._getRootElement=function(t){var e=d.getSelectorFromElement(t),n=!1;return e&&(n=document.querySelector(e)),n||(n=o.default(t).closest(".alert")[0]),n},e._triggerCloseEvent=function(t){var e=o.default.Event("close.bs.alert");return o.default(t).trigger(e),e},e._removeElement=function(t){var e=this;if(o.default(t).removeClass("show"),o.default(t).hasClass("fade")){var n=d.getTransitionDurationFromElement(t);o.default(t).one(d.TRANSITION_END,(function(n){return e._destroyElement(t,n)})).emulateTransitionEnd(n)}else this._destroyElement(t)},e._destroyElement=function(t){o.default(t).detach().trigger("closed.bs.alert").remove()},t._jQueryInterface=function(e){return this.each((function(){var n=o.default(this),i=n.data("bs.alert");i||(i=new t(this),n.data("bs.alert",i)),"close"===e&&i[e](this)}))},t._handleDismiss=function(t){return function(e){e&&e.preventDefault(),t.close(this)}},s(t,null,[{key:"VERSION",get:function(){return"4.6.1"}}]),t}();o.default(document).on("click.bs.alert.data-api",'[data-dismiss="alert"]',h._handleDismiss(new h)),o.default.fn.alert=h._jQueryInterface,o.default.fn.alert.Constructor=h,o.default.fn.alert.noConflict=function(){return o.default.fn.alert=c,h._jQueryInterface};var p=o.default.fn.button,m=function(){function t(t){this._element=t,this.shouldAvoidTriggerChange=!1}var e=t.prototype;return e.toggle=function(){var t=!0,e=!0,n=o.default(this._element).closest('[data-toggle="buttons"]')[0];if(n){var i=this._element.querySelector('input:not([type="hidden"])');if(i){if("radio"===i.type)if(i.checked&&this._element.classList.contains("active"))t=!1;else{var r=n.querySelector(".active");r&&o.default(r).removeClass("active")}t&&("checkbox"!==i.type&&"radio"!==i.type||(i.checked=!this._element.classList.contains("active")),this.shouldAvoidTriggerChange||o.default(i).trigger("change")),i.focus(),e=!1}}this._element.hasAttribute("disabled")||this._element.classList.contains("disabled")||(e&&this._element.setAttribute("aria-pressed",!this._element.classList.contains("active")),t&&o.default(this._element).toggleClass("active"))},e.dispose=function(){o.default.removeData(this._element,"bs.button"),this._element=null},t._jQueryInterface=function(e,n){return this.each((function(){var i=o.default(this),r=i.data("bs.button");r||(r=new t(this),i.data("bs.button",r)),r.shouldAvoidTriggerChange=n,"toggle"===e&&r[e]()}))},s(t,null,[{key:"VERSION",get:function(){return"4.6.1"}}]),t}();o.default(document).on("click.bs.button.data-api",'[data-toggle^="button"]',(function(t){var e=t.target,n=e;if(o.default(e).hasClass("btn")||(e=o.default(e).closest(".btn")[0]),!e||e.hasAttribute("disabled")||e.classList.contains("disabled"))t.preventDefault();else{var i=e.querySelector('input:not([type="hidden"])');if(i&&(i.hasAttribute("disabled")||i.classList.contains("disabled")))return void t.preventDefault();"INPUT"!==n.tagName&&"LABEL"===e.tagName||m._jQueryInterface.call(o.default(e),"toggle","INPUT"===n.tagName)}})).on("focus.bs.button.data-api blur.bs.button.data-api",'[data-toggle^="button"]',(function(t){var e=o.default(t.target).closest(".btn")[0];o.default(e).toggleClass("focus",/^focus(in)?$/.test(t.type))})),o.default(window).on("load.bs.button.data-api",(function(){for(var t=[].slice.call(document.querySelectorAll('[data-toggle="buttons"] .btn')),e=0,n=t.length;e0,this._pointerEvent=Boolean(window.PointerEvent||window.MSPointerEvent),this._addEventListeners()}var e=t.prototype;return e.next=function(){this._isSliding||this._slide("next")},e.nextWhenVisible=function(){var t=o.default(this._element);!document.hidden&&t.is(":visible")&&"hidden"!==t.css("visibility")&&this.next()},e.prev=function(){this._isSliding||this._slide("prev")},e.pause=function(t){t||(this._isPaused=!0),this._element.querySelector(".carousel-item-next, .carousel-item-prev")&&(d.triggerTransitionEnd(this._element),this.cycle(!0)),clearInterval(this._interval),this._interval=null},e.cycle=function(t){t||(this._isPaused=!1),this._interval&&(clearInterval(this._interval),this._interval=null),this._config.interval&&!this._isPaused&&(this._updateInterval(),this._interval=setInterval((document.visibilityState?this.nextWhenVisible:this.next).bind(this),this._config.interval))},e.to=function(t){var e=this;this._activeElement=this._element.querySelector(".active.carousel-item");var n=this._getItemIndex(this._activeElement);if(!(t>this._items.length-1||t<0))if(this._isSliding)o.default(this._element).one("slid.bs.carousel",(function(){return e.to(t)}));else{if(n===t)return this.pause(),void this.cycle();var i=t>n?"next":"prev";this._slide(i,this._items[t])}},e.dispose=function(){o.default(this._element).off(v),o.default.removeData(this._element,"bs.carousel"),this._items=null,this._config=null,this._element=null,this._interval=null,this._isPaused=null,this._isSliding=null,this._activeElement=null,this._indicatorsElement=null},e._getConfig=function(t){return t=l({},b,t),d.typeCheckConfig(g,t,y),t},e._handleSwipe=function(){var t=Math.abs(this.touchDeltaX);if(!(t<=40)){var e=t/this.touchDeltaX;this.touchDeltaX=0,e>0&&this.prev(),e<0&&this.next()}},e._addEventListeners=function(){var t=this;this._config.keyboard&&o.default(this._element).on("keydown.bs.carousel",(function(e){return t._keydown(e)})),"hover"===this._config.pause&&o.default(this._element).on("mouseenter.bs.carousel",(function(e){return t.pause(e)})).on("mouseleave.bs.carousel",(function(e){return t.cycle(e)})),this._config.touch&&this._addTouchEventListeners()},e._addTouchEventListeners=function(){var t=this;if(this._touchSupported){var e=function(e){t._pointerEvent&&w[e.originalEvent.pointerType.toUpperCase()]?t.touchStartX=e.originalEvent.clientX:t._pointerEvent||(t.touchStartX=e.originalEvent.touches[0].clientX)},n=function(e){t._pointerEvent&&w[e.originalEvent.pointerType.toUpperCase()]&&(t.touchDeltaX=e.originalEvent.clientX-t.touchStartX),t._handleSwipe(),"hover"===t._config.pause&&(t.pause(),t.touchTimeout&&clearTimeout(t.touchTimeout),t.touchTimeout=setTimeout((function(e){return t.cycle(e)}),500+t._config.interval))};o.default(this._element.querySelectorAll(".carousel-item img")).on("dragstart.bs.carousel",(function(t){return t.preventDefault()})),this._pointerEvent?(o.default(this._element).on("pointerdown.bs.carousel",(function(t){return e(t)})),o.default(this._element).on("pointerup.bs.carousel",(function(t){return n(t)})),this._element.classList.add("pointer-event")):(o.default(this._element).on("touchstart.bs.carousel",(function(t){return e(t)})),o.default(this._element).on("touchmove.bs.carousel",(function(e){return function(e){t.touchDeltaX=e.originalEvent.touches&&e.originalEvent.touches.length>1?0:e.originalEvent.touches[0].clientX-t.touchStartX}(e)})),o.default(this._element).on("touchend.bs.carousel",(function(t){return n(t)})))}},e._keydown=function(t){if(!/input|textarea/i.test(t.target.tagName))switch(t.which){case 37:t.preventDefault(),this.prev();break;case 39:t.preventDefault(),this.next()}},e._getItemIndex=function(t){return this._items=t&&t.parentNode?[].slice.call(t.parentNode.querySelectorAll(".carousel-item")):[],this._items.indexOf(t)},e._getItemByDirection=function(t,e){var n="next"===t,i="prev"===t,o=this._getItemIndex(e),r=this._items.length-1;if((i&&0===o||n&&o===r)&&!this._config.wrap)return e;var a=(o+("prev"===t?-1:1))%this._items.length;return-1===a?this._items[this._items.length-1]:this._items[a]},e._triggerSlideEvent=function(t,e){var n=this._getItemIndex(t),i=this._getItemIndex(this._element.querySelector(".active.carousel-item")),r=o.default.Event("slide.bs.carousel",{relatedTarget:t,direction:e,from:i,to:n});return o.default(this._element).trigger(r),r},e._setActiveIndicatorElement=function(t){if(this._indicatorsElement){var e=[].slice.call(this._indicatorsElement.querySelectorAll(".active"));o.default(e).removeClass("active");var n=this._indicatorsElement.children[this._getItemIndex(t)];n&&o.default(n).addClass("active")}},e._updateInterval=function(){var t=this._activeElement||this._element.querySelector(".active.carousel-item");if(t){var e=parseInt(t.getAttribute("data-interval"),10);e?(this._config.defaultInterval=this._config.defaultInterval||this._config.interval,this._config.interval=e):this._config.interval=this._config.defaultInterval||this._config.interval}},e._slide=function(t,e){var n,i,r,a=this,s=this._element.querySelector(".active.carousel-item"),l=this._getItemIndex(s),u=e||s&&this._getItemByDirection(t,s),f=this._getItemIndex(u),c=Boolean(this._interval);if("next"===t?(n="carousel-item-left",i="carousel-item-next",r="left"):(n="carousel-item-right",i="carousel-item-prev",r="right"),u&&o.default(u).hasClass("active"))this._isSliding=!1;else if(!this._triggerSlideEvent(u,r).isDefaultPrevented()&&s&&u){this._isSliding=!0,c&&this.pause(),this._setActiveIndicatorElement(u),this._activeElement=u;var h=o.default.Event("slid.bs.carousel",{relatedTarget:u,direction:r,from:l,to:f});if(o.default(this._element).hasClass("slide")){o.default(u).addClass(i),d.reflow(u),o.default(s).addClass(n),o.default(u).addClass(n);var p=d.getTransitionDurationFromElement(s);o.default(s).one(d.TRANSITION_END,(function(){o.default(u).removeClass(n+" "+i).addClass("active"),o.default(s).removeClass("active "+i+" "+n),a._isSliding=!1,setTimeout((function(){return o.default(a._element).trigger(h)}),0)})).emulateTransitionEnd(p)}else o.default(s).removeClass("active"),o.default(u).addClass("active"),this._isSliding=!1,o.default(this._element).trigger(h);c&&this.cycle()}},t._jQueryInterface=function(e){return this.each((function(){var n=o.default(this).data("bs.carousel"),i=l({},b,o.default(this).data());"object"==typeof e&&(i=l({},i,e));var r="string"==typeof e?e:i.slide;if(n||(n=new t(this,i),o.default(this).data("bs.carousel",n)),"number"==typeof e)n.to(e);else if("string"==typeof r){if(void 0===n[r])throw new TypeError('No method named "'+r+'"');n[r]()}else i.interval&&i.ride&&(n.pause(),n.cycle())}))},t._dataApiClickHandler=function(e){var n=d.getSelectorFromElement(this);if(n){var i=o.default(n)[0];if(i&&o.default(i).hasClass("carousel")){var r=l({},o.default(i).data(),o.default(this).data()),a=this.getAttribute("data-slide-to");a&&(r.interval=!1),t._jQueryInterface.call(o.default(i),r),a&&o.default(i).data("bs.carousel").to(a),e.preventDefault()}}},s(t,null,[{key:"VERSION",get:function(){return"4.6.1"}},{key:"Default",get:function(){return b}}]),t}();o.default(document).on("click.bs.carousel.data-api","[data-slide], [data-slide-to]",E._dataApiClickHandler),o.default(window).on("load.bs.carousel.data-api",(function(){for(var t=[].slice.call(document.querySelectorAll('[data-ride="carousel"]')),e=0,n=t.length;e0&&(this._selector=a,this._triggerArray.push(r))}this._parent=this._config.parent?this._getParent():null,this._config.parent||this._addAriaAndCollapsedClass(this._element,this._triggerArray),this._config.toggle&&this.toggle()}var e=t.prototype;return e.toggle=function(){o.default(this._element).hasClass("show")?this.hide():this.show()},e.show=function(){var e,n,i=this;if(!(this._isTransitioning||o.default(this._element).hasClass("show")||(this._parent&&0===(e=[].slice.call(this._parent.querySelectorAll(".show, .collapsing")).filter((function(t){return"string"==typeof i._config.parent?t.getAttribute("data-parent")===i._config.parent:t.classList.contains("collapse")}))).length&&(e=null),e&&(n=o.default(e).not(this._selector).data("bs.collapse"))&&n._isTransitioning))){var r=o.default.Event("show.bs.collapse");if(o.default(this._element).trigger(r),!r.isDefaultPrevented()){e&&(t._jQueryInterface.call(o.default(e).not(this._selector),"hide"),n||o.default(e).data("bs.collapse",null));var a=this._getDimension();o.default(this._element).removeClass("collapse").addClass("collapsing"),this._element.style[a]=0,this._triggerArray.length&&o.default(this._triggerArray).removeClass("collapsed").attr("aria-expanded",!0),this.setTransitioning(!0);var s="scroll"+(a[0].toUpperCase()+a.slice(1)),l=d.getTransitionDurationFromElement(this._element);o.default(this._element).one(d.TRANSITION_END,(function(){o.default(i._element).removeClass("collapsing").addClass("collapse show"),i._element.style[a]="",i.setTransitioning(!1),o.default(i._element).trigger("shown.bs.collapse")})).emulateTransitionEnd(l),this._element.style[a]=this._element[s]+"px"}}},e.hide=function(){var t=this;if(!this._isTransitioning&&o.default(this._element).hasClass("show")){var e=o.default.Event("hide.bs.collapse");if(o.default(this._element).trigger(e),!e.isDefaultPrevented()){var n=this._getDimension();this._element.style[n]=this._element.getBoundingClientRect()[n]+"px",d.reflow(this._element),o.default(this._element).addClass("collapsing").removeClass("collapse show");var i=this._triggerArray.length;if(i>0)for(var r=0;r0},e._getOffset=function(){var t=this,e={};return"function"==typeof this._config.offset?e.fn=function(e){return e.offsets=l({},e.offsets,t._config.offset(e.offsets,t._element)),e}:e.offset=this._config.offset,e},e._getPopperConfig=function(){var t={placement:this._getPlacement(),modifiers:{offset:this._getOffset(),flip:{enabled:this._config.flip},preventOverflow:{boundariesElement:this._config.boundary}}};return"static"===this._config.display&&(t.modifiers.applyStyle={enabled:!1}),l({},t,this._config.popperConfig)},t._jQueryInterface=function(e){return this.each((function(){var n=o.default(this).data("bs.dropdown");if(n||(n=new t(this,"object"==typeof e?e:null),o.default(this).data("bs.dropdown",n)),"string"==typeof e){if(void 0===n[e])throw new TypeError('No method named "'+e+'"');n[e]()}}))},t._clearMenus=function(e){if(!e||3!==e.which&&("keyup"!==e.type||9===e.which))for(var n=[].slice.call(document.querySelectorAll('[data-toggle="dropdown"]')),i=0,r=n.length;i0&&a--,40===e.which&&adocument.documentElement.clientHeight;n||(this._element.style.overflowY="hidden"),this._element.classList.add("modal-static");var i=d.getTransitionDurationFromElement(this._dialog);o.default(this._element).off(d.TRANSITION_END),o.default(this._element).one(d.TRANSITION_END,(function(){t._element.classList.remove("modal-static"),n||o.default(t._element).one(d.TRANSITION_END,(function(){t._element.style.overflowY=""})).emulateTransitionEnd(t._element,i)})).emulateTransitionEnd(i),this._element.focus()}},e._showElement=function(t){var e=this,n=o.default(this._element).hasClass("fade"),i=this._dialog?this._dialog.querySelector(".modal-body"):null;this._element.parentNode&&this._element.parentNode.nodeType===Node.ELEMENT_NODE||document.body.appendChild(this._element),this._element.style.display="block",this._element.removeAttribute("aria-hidden"),this._element.setAttribute("aria-modal",!0),this._element.setAttribute("role","dialog"),o.default(this._dialog).hasClass("modal-dialog-scrollable")&&i?i.scrollTop=0:this._element.scrollTop=0,n&&d.reflow(this._element),o.default(this._element).addClass("show"),this._config.focus&&this._enforceFocus();var r=o.default.Event("shown.bs.modal",{relatedTarget:t}),a=function(){e._config.focus&&e._element.focus(),e._isTransitioning=!1,o.default(e._element).trigger(r)};if(n){var s=d.getTransitionDurationFromElement(this._dialog);o.default(this._dialog).one(d.TRANSITION_END,a).emulateTransitionEnd(s)}else a()},e._enforceFocus=function(){var t=this;o.default(document).off("focusin.bs.modal").on("focusin.bs.modal",(function(e){document!==e.target&&t._element!==e.target&&0===o.default(t._element).has(e.target).length&&t._element.focus()}))},e._setEscapeEvent=function(){var t=this;this._isShown?o.default(this._element).on("keydown.dismiss.bs.modal",(function(e){t._config.keyboard&&27===e.which?(e.preventDefault(),t.hide()):t._config.keyboard||27!==e.which||t._triggerBackdropTransition()})):this._isShown||o.default(this._element).off("keydown.dismiss.bs.modal")},e._setResizeEvent=function(){var t=this;this._isShown?o.default(window).on("resize.bs.modal",(function(e){return t.handleUpdate(e)})):o.default(window).off("resize.bs.modal")},e._hideModal=function(){var t=this;this._element.style.display="none",this._element.setAttribute("aria-hidden",!0),this._element.removeAttribute("aria-modal"),this._element.removeAttribute("role"),this._isTransitioning=!1,this._showBackdrop((function(){o.default(document.body).removeClass("modal-open"),t._resetAdjustments(),t._resetScrollbar(),o.default(t._element).trigger("hidden.bs.modal")}))},e._removeBackdrop=function(){this._backdrop&&(o.default(this._backdrop).remove(),this._backdrop=null)},e._showBackdrop=function(t){var e=this,n=o.default(this._element).hasClass("fade")?"fade":"";if(this._isShown&&this._config.backdrop){if(this._backdrop=document.createElement("div"),this._backdrop.className="modal-backdrop",n&&this._backdrop.classList.add(n),o.default(this._backdrop).appendTo(document.body),o.default(this._element).on("click.dismiss.bs.modal",(function(t){e._ignoreBackdropClick?e._ignoreBackdropClick=!1:t.target===t.currentTarget&&("static"===e._config.backdrop?e._triggerBackdropTransition():e.hide())})),n&&d.reflow(this._backdrop),o.default(this._backdrop).addClass("show"),!t)return;if(!n)return void t();var i=d.getTransitionDurationFromElement(this._backdrop);o.default(this._backdrop).one(d.TRANSITION_END,t).emulateTransitionEnd(i)}else if(!this._isShown&&this._backdrop){o.default(this._backdrop).removeClass("show");var r=function(){e._removeBackdrop(),t&&t()};if(o.default(this._element).hasClass("fade")){var a=d.getTransitionDurationFromElement(this._backdrop);o.default(this._backdrop).one(d.TRANSITION_END,r).emulateTransitionEnd(a)}else r()}else t&&t()},e._adjustDialog=function(){var t=this._element.scrollHeight>document.documentElement.clientHeight;!this._isBodyOverflowing&&t&&(this._element.style.paddingLeft=this._scrollbarWidth+"px"),this._isBodyOverflowing&&!t&&(this._element.style.paddingRight=this._scrollbarWidth+"px")},e._resetAdjustments=function(){this._element.style.paddingLeft="",this._element.style.paddingRight=""},e._checkScrollbar=function(){var t=document.body.getBoundingClientRect();this._isBodyOverflowing=Math.round(t.left+t.right)
',trigger:"hover focus",title:"",delay:0,html:!1,selector:!1,placement:"top",offset:0,container:!1,fallbackPlacement:"flip",boundary:"scrollParent",customClass:"",sanitize:!0,sanitizeFn:null,whiteList:B,popperConfig:null},X={animation:"boolean",template:"string",title:"(string|element|function)",trigger:"string",delay:"(number|object)",html:"boolean",selector:"(string|boolean)",placement:"(string|function)",offset:"(number|string|function)",container:"(string|element|boolean)",fallbackPlacement:"(string|array)",boundary:"(string|element)",customClass:"(string|function)",sanitize:"boolean",sanitizeFn:"(null|function)",whiteList:"object",popperConfig:"(null|object)"},$={HIDE:"hide.bs.tooltip",HIDDEN:"hidden.bs.tooltip",SHOW:"show.bs.tooltip",SHOWN:"shown.bs.tooltip",INSERTED:"inserted.bs.tooltip",CLICK:"click.bs.tooltip",FOCUSIN:"focusin.bs.tooltip",FOCUSOUT:"focusout.bs.tooltip",MOUSEENTER:"mouseenter.bs.tooltip",MOUSELEAVE:"mouseleave.bs.tooltip"},G=function(){function t(t,e){if(void 0===r.default)throw new TypeError("Bootstrap's tooltips require Popper (https://popper.js.org)");this._isEnabled=!0,this._timeout=0,this._hoverState="",this._activeTrigger={},this._popper=null,this.element=t,this.config=this._getConfig(e),this.tip=null,this._setListeners()}var e=t.prototype;return e.enable=function(){this._isEnabled=!0},e.disable=function(){this._isEnabled=!1},e.toggleEnabled=function(){this._isEnabled=!this._isEnabled},e.toggle=function(t){if(this._isEnabled)if(t){var e=this.constructor.DATA_KEY,n=o.default(t.currentTarget).data(e);n||(n=new this.constructor(t.currentTarget,this._getDelegateConfig()),o.default(t.currentTarget).data(e,n)),n._activeTrigger.click=!n._activeTrigger.click,n._isWithActiveTrigger()?n._enter(null,n):n._leave(null,n)}else{if(o.default(this.getTipElement()).hasClass("show"))return void this._leave(null,this);this._enter(null,this)}},e.dispose=function(){clearTimeout(this._timeout),o.default.removeData(this.element,this.constructor.DATA_KEY),o.default(this.element).off(this.constructor.EVENT_KEY),o.default(this.element).closest(".modal").off("hide.bs.modal",this._hideModalHandler),this.tip&&o.default(this.tip).remove(),this._isEnabled=null,this._timeout=null,this._hoverState=null,this._activeTrigger=null,this._popper&&this._popper.destroy(),this._popper=null,this.element=null,this.config=null,this.tip=null},e.show=function(){var t=this;if("none"===o.default(this.element).css("display"))throw new Error("Please use show on visible elements");var e=o.default.Event(this.constructor.Event.SHOW);if(this.isWithContent()&&this._isEnabled){o.default(this.element).trigger(e);var n=d.findShadowRoot(this.element),i=o.default.contains(null!==n?n:this.element.ownerDocument.documentElement,this.element);if(e.isDefaultPrevented()||!i)return;var a=this.getTipElement(),s=d.getUID(this.constructor.NAME);a.setAttribute("id",s),this.element.setAttribute("aria-describedby",s),this.setContent(),this.config.animation&&o.default(a).addClass("fade");var l="function"==typeof this.config.placement?this.config.placement.call(this,a,this.element):this.config.placement,u=this._getAttachment(l);this.addAttachmentClass(u);var f=this._getContainer();o.default(a).data(this.constructor.DATA_KEY,this),o.default.contains(this.element.ownerDocument.documentElement,this.tip)||o.default(a).appendTo(f),o.default(this.element).trigger(this.constructor.Event.INSERTED),this._popper=new r.default(this.element,a,this._getPopperConfig(u)),o.default(a).addClass("show"),o.default(a).addClass(this.config.customClass),"ontouchstart"in document.documentElement&&o.default(document.body).children().on("mouseover",null,o.default.noop);var c=function(){t.config.animation&&t._fixTransition();var e=t._hoverState;t._hoverState=null,o.default(t.element).trigger(t.constructor.Event.SHOWN),"out"===e&&t._leave(null,t)};if(o.default(this.tip).hasClass("fade")){var h=d.getTransitionDurationFromElement(this.tip);o.default(this.tip).one(d.TRANSITION_END,c).emulateTransitionEnd(h)}else c()}},e.hide=function(t){var e=this,n=this.getTipElement(),i=o.default.Event(this.constructor.Event.HIDE),r=function(){"show"!==e._hoverState&&n.parentNode&&n.parentNode.removeChild(n),e._cleanTipClass(),e.element.removeAttribute("aria-describedby"),o.default(e.element).trigger(e.constructor.Event.HIDDEN),null!==e._popper&&e._popper.destroy(),t&&t()};if(o.default(this.element).trigger(i),!i.isDefaultPrevented()){if(o.default(n).removeClass("show"),"ontouchstart"in document.documentElement&&o.default(document.body).children().off("mouseover",null,o.default.noop),this._activeTrigger.click=!1,this._activeTrigger.focus=!1,this._activeTrigger.hover=!1,o.default(this.tip).hasClass("fade")){var a=d.getTransitionDurationFromElement(n);o.default(n).one(d.TRANSITION_END,r).emulateTransitionEnd(a)}else r();this._hoverState=""}},e.update=function(){null!==this._popper&&this._popper.scheduleUpdate()},e.isWithContent=function(){return Boolean(this.getTitle())},e.addAttachmentClass=function(t){o.default(this.getTipElement()).addClass("bs-tooltip-"+t)},e.getTipElement=function(){return this.tip=this.tip||o.default(this.config.template)[0],this.tip},e.setContent=function(){var t=this.getTipElement();this.setElementContent(o.default(t.querySelectorAll(".tooltip-inner")),this.getTitle()),o.default(t).removeClass("fade show")},e.setElementContent=function(t,e){"object"!=typeof e||!e.nodeType&&!e.jquery?this.config.html?(this.config.sanitize&&(e=Q(e,this.config.whiteList,this.config.sanitizeFn)),t.html(e)):t.text(e):this.config.html?o.default(e).parent().is(t)||t.empty().append(e):t.text(o.default(e).text())},e.getTitle=function(){var t=this.element.getAttribute("data-original-title");return t||(t="function"==typeof this.config.title?this.config.title.call(this.element):this.config.title),t},e._getPopperConfig=function(t){var e=this;return l({},{placement:t,modifiers:{offset:this._getOffset(),flip:{behavior:this.config.fallbackPlacement},arrow:{element:".arrow"},preventOverflow:{boundariesElement:this.config.boundary}},onCreate:function(t){t.originalPlacement!==t.placement&&e._handlePopperPlacementChange(t)},onUpdate:function(t){return e._handlePopperPlacementChange(t)}},this.config.popperConfig)},e._getOffset=function(){var t=this,e={};return"function"==typeof this.config.offset?e.fn=function(e){return e.offsets=l({},e.offsets,t.config.offset(e.offsets,t.element)),e}:e.offset=this.config.offset,e},e._getContainer=function(){return!1===this.config.container?document.body:d.isElement(this.config.container)?o.default(this.config.container):o.default(document).find(this.config.container)},e._getAttachment=function(t){return z[t.toUpperCase()]},e._setListeners=function(){var t=this;this.config.trigger.split(" ").forEach((function(e){if("click"===e)o.default(t.element).on(t.constructor.Event.CLICK,t.config.selector,(function(e){return t.toggle(e)}));else if("manual"!==e){var n="hover"===e?t.constructor.Event.MOUSEENTER:t.constructor.Event.FOCUSIN,i="hover"===e?t.constructor.Event.MOUSELEAVE:t.constructor.Event.FOCUSOUT;o.default(t.element).on(n,t.config.selector,(function(e){return t._enter(e)})).on(i,t.config.selector,(function(e){return t._leave(e)}))}})),this._hideModalHandler=function(){t.element&&t.hide()},o.default(this.element).closest(".modal").on("hide.bs.modal",this._hideModalHandler),this.config.selector?this.config=l({},this.config,{trigger:"manual",selector:""}):this._fixTitle()},e._fixTitle=function(){var t=typeof this.element.getAttribute("data-original-title");(this.element.getAttribute("title")||"string"!==t)&&(this.element.setAttribute("data-original-title",this.element.getAttribute("title")||""),this.element.setAttribute("title",""))},e._enter=function(t,e){var n=this.constructor.DATA_KEY;(e=e||o.default(t.currentTarget).data(n))||(e=new this.constructor(t.currentTarget,this._getDelegateConfig()),o.default(t.currentTarget).data(n,e)),t&&(e._activeTrigger["focusin"===t.type?"focus":"hover"]=!0),o.default(e.getTipElement()).hasClass("show")||"show"===e._hoverState?e._hoverState="show":(clearTimeout(e._timeout),e._hoverState="show",e.config.delay&&e.config.delay.show?e._timeout=setTimeout((function(){"show"===e._hoverState&&e.show()}),e.config.delay.show):e.show())},e._leave=function(t,e){var n=this.constructor.DATA_KEY;(e=e||o.default(t.currentTarget).data(n))||(e=new this.constructor(t.currentTarget,this._getDelegateConfig()),o.default(t.currentTarget).data(n,e)),t&&(e._activeTrigger["focusout"===t.type?"focus":"hover"]=!1),e._isWithActiveTrigger()||(clearTimeout(e._timeout),e._hoverState="out",e.config.delay&&e.config.delay.hide?e._timeout=setTimeout((function(){"out"===e._hoverState&&e.hide()}),e.config.delay.hide):e.hide())},e._isWithActiveTrigger=function(){for(var t in this._activeTrigger)if(this._activeTrigger[t])return!0;return!1},e._getConfig=function(t){var e=o.default(this.element).data();return Object.keys(e).forEach((function(t){-1!==Y.indexOf(t)&&delete e[t]})),"number"==typeof(t=l({},this.constructor.Default,e,"object"==typeof t&&t?t:{})).delay&&(t.delay={show:t.delay,hide:t.delay}),"number"==typeof t.title&&(t.title=t.title.toString()),"number"==typeof t.content&&(t.content=t.content.toString()),d.typeCheckConfig(W,t,this.constructor.DefaultType),t.sanitize&&(t.template=Q(t.template,t.whiteList,t.sanitizeFn)),t},e._getDelegateConfig=function(){var t={};if(this.config)for(var e in this.config)this.constructor.Default[e]!==this.config[e]&&(t[e]=this.config[e]);return t},e._cleanTipClass=function(){var t=o.default(this.getTipElement()),e=t.attr("class").match(V);null!==e&&e.length&&t.removeClass(e.join(""))},e._handlePopperPlacementChange=function(t){this.tip=t.instance.popper,this._cleanTipClass(),this.addAttachmentClass(this._getAttachment(t.placement))},e._fixTransition=function(){var t=this.getTipElement(),e=this.config.animation;null===t.getAttribute("x-placement")&&(o.default(t).removeClass("fade"),this.config.animation=!1,this.hide(),this.show(),this.config.animation=e)},t._jQueryInterface=function(e){return this.each((function(){var n=o.default(this),i=n.data("bs.tooltip"),r="object"==typeof e&&e;if((i||!/dispose|hide/.test(e))&&(i||(i=new t(this,r),n.data("bs.tooltip",i)),"string"==typeof e)){if(void 0===i[e])throw new TypeError('No method named "'+e+'"');i[e]()}}))},s(t,null,[{key:"VERSION",get:function(){return"4.6.1"}},{key:"Default",get:function(){return K}},{key:"NAME",get:function(){return W}},{key:"DATA_KEY",get:function(){return"bs.tooltip"}},{key:"Event",get:function(){return $}},{key:"EVENT_KEY",get:function(){return".bs.tooltip"}},{key:"DefaultType",get:function(){return X}}]),t}();o.default.fn[W]=G._jQueryInterface,o.default.fn[W].Constructor=G,o.default.fn[W].noConflict=function(){return o.default.fn[W]=U,G._jQueryInterface};var J="popover",Z=o.default.fn[J],tt=new RegExp("(^|\\s)bs-popover\\S+","g"),et=l({},G.Default,{placement:"right",trigger:"click",content:"",template:''}),nt=l({},G.DefaultType,{content:"(string|element|function)"}),it={HIDE:"hide.bs.popover",HIDDEN:"hidden.bs.popover",SHOW:"show.bs.popover",SHOWN:"shown.bs.popover",INSERTED:"inserted.bs.popover",CLICK:"click.bs.popover",FOCUSIN:"focusin.bs.popover",FOCUSOUT:"focusout.bs.popover",MOUSEENTER:"mouseenter.bs.popover",MOUSELEAVE:"mouseleave.bs.popover"},ot=function(t){var e,n;function i(){return t.apply(this,arguments)||this}n=t,(e=i).prototype=Object.create(n.prototype),e.prototype.constructor=e,u(e,n);var r=i.prototype;return r.isWithContent=function(){return this.getTitle()||this._getContent()},r.addAttachmentClass=function(t){o.default(this.getTipElement()).addClass("bs-popover-"+t)},r.getTipElement=function(){return this.tip=this.tip||o.default(this.config.template)[0],this.tip},r.setContent=function(){var t=o.default(this.getTipElement());this.setElementContent(t.find(".popover-header"),this.getTitle());var e=this._getContent();"function"==typeof e&&(e=e.call(this.element)),this.setElementContent(t.find(".popover-body"),e),t.removeClass("fade show")},r._getContent=function(){return this.element.getAttribute("data-content")||this.config.content},r._cleanTipClass=function(){var t=o.default(this.getTipElement()),e=t.attr("class").match(tt);null!==e&&e.length>0&&t.removeClass(e.join(""))},i._jQueryInterface=function(t){return this.each((function(){var e=o.default(this).data("bs.popover"),n="object"==typeof t?t:null;if((e||!/dispose|hide/.test(t))&&(e||(e=new i(this,n),o.default(this).data("bs.popover",e)),"string"==typeof t)){if(void 0===e[t])throw new TypeError('No method named "'+t+'"');e[t]()}}))},s(i,null,[{key:"VERSION",get:function(){return"4.6.1"}},{key:"Default",get:function(){return et}},{key:"NAME",get:function(){return J}},{key:"DATA_KEY",get:function(){return"bs.popover"}},{key:"Event",get:function(){return it}},{key:"EVENT_KEY",get:function(){return".bs.popover"}},{key:"DefaultType",get:function(){return nt}}]),i}(G);o.default.fn[J]=ot._jQueryInterface,o.default.fn[J].Constructor=ot,o.default.fn[J].noConflict=function(){return o.default.fn[J]=Z,ot._jQueryInterface};var rt="scrollspy",at=o.default.fn[rt],st={offset:10,method:"auto",target:""},lt={offset:"number",method:"string",target:"(string|element)"},ut=function(){function t(t,e){var n=this;this._element=t,this._scrollElement="BODY"===t.tagName?window:t,this._config=this._getConfig(e),this._selector=this._config.target+" .nav-link,"+this._config.target+" .list-group-item,"+this._config.target+" .dropdown-item",this._offsets=[],this._targets=[],this._activeTarget=null,this._scrollHeight=0,o.default(this._scrollElement).on("scroll.bs.scrollspy",(function(t){return n._process(t)})),this.refresh(),this._process()}var e=t.prototype;return e.refresh=function(){var t=this,e=this._scrollElement===this._scrollElement.window?"offset":"position",n="auto"===this._config.method?e:this._config.method,i="position"===n?this._getScrollTop():0;this._offsets=[],this._targets=[],this._scrollHeight=this._getScrollHeight(),[].slice.call(document.querySelectorAll(this._selector)).map((function(t){var e,r=d.getSelectorFromElement(t);if(r&&(e=document.querySelector(r)),e){var a=e.getBoundingClientRect();if(a.width||a.height)return[o.default(e)[n]().top+i,r]}return null})).filter((function(t){return t})).sort((function(t,e){return t[0]-e[0]})).forEach((function(e){t._offsets.push(e[0]),t._targets.push(e[1])}))},e.dispose=function(){o.default.removeData(this._element,"bs.scrollspy"),o.default(this._scrollElement).off(".bs.scrollspy"),this._element=null,this._scrollElement=null,this._config=null,this._selector=null,this._offsets=null,this._targets=null,this._activeTarget=null,this._scrollHeight=null},e._getConfig=function(t){if("string"!=typeof(t=l({},st,"object"==typeof t&&t?t:{})).target&&d.isElement(t.target)){var e=o.default(t.target).attr("id");e||(e=d.getUID(rt),o.default(t.target).attr("id",e)),t.target="#"+e}return d.typeCheckConfig(rt,t,lt),t},e._getScrollTop=function(){return this._scrollElement===window?this._scrollElement.pageYOffset:this._scrollElement.scrollTop},e._getScrollHeight=function(){return this._scrollElement.scrollHeight||Math.max(document.body.scrollHeight,document.documentElement.scrollHeight)},e._getOffsetHeight=function(){return this._scrollElement===window?window.innerHeight:this._scrollElement.getBoundingClientRect().height},e._process=function(){var t=this._getScrollTop()+this._config.offset,e=this._getScrollHeight(),n=this._config.offset+e-this._getOffsetHeight();if(this._scrollHeight!==e&&this.refresh(),t>=n){var i=this._targets[this._targets.length-1];this._activeTarget!==i&&this._activate(i)}else{if(this._activeTarget&&t0)return this._activeTarget=null,void this._clear();for(var o=this._offsets.length;o--;)this._activeTarget!==this._targets[o]&&t>=this._offsets[o]&&(void 0===this._offsets[o+1]||t li > .active":".active";n=(n=o.default.makeArray(o.default(i).find(a)))[n.length-1]}var s=o.default.Event("hide.bs.tab",{relatedTarget:this._element}),l=o.default.Event("show.bs.tab",{relatedTarget:n});if(n&&o.default(n).trigger(s),o.default(this._element).trigger(l),!l.isDefaultPrevented()&&!s.isDefaultPrevented()){r&&(e=document.querySelector(r)),this._activate(this._element,i);var u=function(){var e=o.default.Event("hidden.bs.tab",{relatedTarget:t._element}),i=o.default.Event("shown.bs.tab",{relatedTarget:n});o.default(n).trigger(e),o.default(t._element).trigger(i)};e?this._activate(e,e.parentNode,u):u()}}},e.dispose=function(){o.default.removeData(this._element,"bs.tab"),this._element=null},e._activate=function(t,e,n){var i=this,r=(!e||"UL"!==e.nodeName&&"OL"!==e.nodeName?o.default(e).children(".active"):o.default(e).find("> li > .active"))[0],a=n&&r&&o.default(r).hasClass("fade"),s=function(){return i._transitionComplete(t,r,n)};if(r&&a){var l=d.getTransitionDurationFromElement(r);o.default(r).removeClass("show").one(d.TRANSITION_END,s).emulateTransitionEnd(l)}else s()},e._transitionComplete=function(t,e,n){if(e){o.default(e).removeClass("active");var i=o.default(e.parentNode).find("> .dropdown-menu .active")[0];i&&o.default(i).removeClass("active"),"tab"===e.getAttribute("role")&&e.setAttribute("aria-selected",!1)}o.default(t).addClass("active"),"tab"===t.getAttribute("role")&&t.setAttribute("aria-selected",!0),d.reflow(t),t.classList.contains("fade")&&t.classList.add("show");var r=t.parentNode;if(r&&"LI"===r.nodeName&&(r=r.parentNode),r&&o.default(r).hasClass("dropdown-menu")){var a=o.default(t).closest(".dropdown")[0];if(a){var s=[].slice.call(a.querySelectorAll(".dropdown-toggle"));o.default(s).addClass("active")}t.setAttribute("aria-expanded",!0)}n&&n()},t._jQueryInterface=function(e){return this.each((function(){var n=o.default(this),i=n.data("bs.tab");if(i||(i=new t(this),n.data("bs.tab",i)),"string"==typeof e){if(void 0===i[e])throw new TypeError('No method named "'+e+'"');i[e]()}}))},s(t,null,[{key:"VERSION",get:function(){return"4.6.1"}}]),t}();o.default(document).on("click.bs.tab.data-api",'[data-toggle="tab"], [data-toggle="pill"], [data-toggle="list"]',(function(t){t.preventDefault(),dt._jQueryInterface.call(o.default(this),"show")})),o.default.fn.tab=dt._jQueryInterface,o.default.fn.tab.Constructor=dt,o.default.fn.tab.noConflict=function(){return o.default.fn.tab=ft,dt._jQueryInterface};var ct="toast",ht=o.default.fn[ct],pt={animation:!0,autohide:!0,delay:500},mt={animation:"boolean",autohide:"boolean",delay:"number"},gt=function(){function t(t,e){this._element=t,this._config=this._getConfig(e),this._timeout=null,this._setListeners()}var e=t.prototype;return e.show=function(){var t=this,e=o.default.Event("show.bs.toast");if(o.default(this._element).trigger(e),!e.isDefaultPrevented()){this._clearTimeout(),this._config.animation&&this._element.classList.add("fade");var n=function(){t._element.classList.remove("showing"),t._element.classList.add("show"),o.default(t._element).trigger("shown.bs.toast"),t._config.autohide&&(t._timeout=setTimeout((function(){t.hide()}),t._config.delay))};if(this._element.classList.remove("hide"),d.reflow(this._element),this._element.classList.add("showing"),this._config.animation){var i=d.getTransitionDurationFromElement(this._element);o.default(this._element).one(d.TRANSITION_END,n).emulateTransitionEnd(i)}else n()}},e.hide=function(){if(this._element.classList.contains("show")){var t=o.default.Event("hide.bs.toast");o.default(this._element).trigger(t),t.isDefaultPrevented()||this._close()}},e.dispose=function(){this._clearTimeout(),this._element.classList.contains("show")&&this._element.classList.remove("show"),o.default(this._element).off("click.dismiss.bs.toast"),o.default.removeData(this._element,"bs.toast"),this._element=null,this._config=null},e._getConfig=function(t){return t=l({},pt,o.default(this._element).data(),"object"==typeof t&&t?t:{}),d.typeCheckConfig(ct,t,this.constructor.DefaultType),t},e._setListeners=function(){var t=this;o.default(this._element).on("click.dismiss.bs.toast",'[data-dismiss="toast"]',(function(){return t.hide()}))},e._close=function(){var t=this,e=function(){t._element.classList.add("hide"),o.default(t._element).trigger("hidden.bs.toast")};if(this._element.classList.remove("show"),this._config.animation){var n=d.getTransitionDurationFromElement(this._element);o.default(this._element).one(d.TRANSITION_END,e).emulateTransitionEnd(n)}else e()},e._clearTimeout=function(){clearTimeout(this._timeout),this._timeout=null},t._jQueryInterface=function(e){return this.each((function(){var n=o.default(this),i=n.data("bs.toast");if(i||(i=new t(this,"object"==typeof e&&e),n.data("bs.toast",i)),"string"==typeof e){if(void 0===i[e])throw new TypeError('No method named "'+e+'"');i[e](this)}}))},s(t,null,[{key:"VERSION",get:function(){return"4.6.1"}},{key:"DefaultType",get:function(){return mt}},{key:"Default",get:function(){return pt}}]),t}();o.default.fn[ct]=gt._jQueryInterface,o.default.fn[ct].Constructor=gt,o.default.fn[ct].noConflict=function(){return o.default.fn[ct]=ht,gt._jQueryInterface},t.Alert=h,t.Button=m,t.Carousel=E,t.Collapse=D,t.Dropdown=j,t.Modal=R,t.Popover=ot,t.Scrollspy=ut,t.Tab=dt,t.Toast=gt,t.Tooltip=G,t.Util=d,Object.defineProperty(t,"__esModule",{value:!0})}(e,n(0),n(1))},function(t,e){var n;n=function(){return this}();try{n=n||new Function("return this")()}catch(t){"object"==typeof window&&(n=window)}t.exports=n},function(t,e,n){"use strict";n.r(e);n(0),n(3),n.p;$((function(){var t=document.querySelector("div.bd-sidebar");let e=parseInt(sessionStorage.getItem("sidebar-scroll-top"),10);if(isNaN(e)){var n=document.getElementById("bd-docs-nav").querySelectorAll(".active");if(n.length>0){var i=n[n.length-1],o=i.getBoundingClientRect().y-t.getBoundingClientRect().y;if(i.getBoundingClientRect().y>.5*window.innerHeight){let e=.25;t.scrollTop=o-t.clientHeight*e,console.log("[PST]: Scrolled sidebar using last active link...")}}}else t.scrollTop=e,console.log("[PST]: Scrolled sidebar using stored browser position...");window.addEventListener("beforeunload",()=>{sessionStorage.setItem("sidebar-scroll-top",t.scrollTop)})})),$((function(){$(window).on("activate.bs.scrollspy",(function(){document.querySelectorAll("#bd-toc-nav a").forEach(t=>{t.parentElement.classList.remove("active")});document.querySelectorAll("#bd-toc-nav a.active").forEach(t=>{t.parentElement.classList.add("active")})}))}))}]); \ No newline at end of file diff --git a/docs/_static/scripts/sphinx-book-theme.js b/docs/_static/scripts/sphinx-book-theme.js deleted file mode 100644 index da4a5cd5e..000000000 --- a/docs/_static/scripts/sphinx-book-theme.js +++ /dev/null @@ -1,2 +0,0 @@ -!function(e){var t={};function n(o){if(t[o])return t[o].exports;var r=t[o]={i:o,l:!1,exports:{}};return e[o].call(r.exports,r,r.exports,n),r.l=!0,r.exports}n.m=e,n.c=t,n.d=function(e,t,o){n.o(e,t)||Object.defineProperty(e,t,{enumerable:!0,get:o})},n.r=function(e){"undefined"!=typeof Symbol&&Symbol.toStringTag&&Object.defineProperty(e,Symbol.toStringTag,{value:"Module"}),Object.defineProperty(e,"__esModule",{value:!0})},n.t=function(e,t){if(1&t&&(e=n(e)),8&t)return e;if(4&t&&"object"==typeof e&&e&&e.__esModule)return e;var o=Object.create(null);if(n.r(o),Object.defineProperty(o,"default",{enumerable:!0,value:e}),2&t&&"string"!=typeof e)for(var r in e)n.d(o,r,function(t){return e[t]}.bind(null,r));return o},n.n=function(e){var t=e&&e.__esModule?function(){return e.default}:function(){return e};return n.d(t,"a",t),t},n.o=function(e,t){return Object.prototype.hasOwnProperty.call(e,t)},n.p="",n(n.s=0)}([function(e,t,n){e.exports=n(1)},function(e,t,n){"use strict";n.r(t);n.p;var o=e=>{"loading"!=document.readyState?e():document.addEventListener?document.addEventListener("DOMContentLoaded",e):document.attachEvent("onreadystatechange",(function(){"complete"==document.readyState&&e()}))};window.initThebeSBT=()=>{var e=$("div.section h1")[0];$(e).next().hasClass("thebe-launch-button")||$("").insertAfter($(e)),initThebe()},window.printPdf=e=>{let t=$(e).attr("aria-describedby"),n=$("#"+t).detach();window.print(),$("body").append(n)},window.toggleFullScreen=()=>{var e=document.fullscreenElement&&null!==document.fullscreenElement||document.webkitFullscreenElement&&null!==document.webkitFullscreenElement;let t=document.documentElement;e?(console.log("[SBT]: Exiting full screen"),document.exitFullscreen?document.exitFullscreen():document.webkitExitFullscreen&&document.webkitExitFullscreen()):(console.log("[SBT]: Entering full screen"),t.requestFullscreen?t.requestFullscreen():t.webkitRequestFullscreen&&t.webkitRequestFullscreen())},o(()=>{$(document).ready((function(){$('[data-toggle="tooltip"]').tooltip({trigger:"hover",delay:{show:500,hide:100}})}))}),o(()=>{var e=document.getElementById("site-navigation"),t=e.querySelectorAll(".active"),n=t[t.length-1];void 0!==n&&n.offsetTop>.5*$(window).height()&&(e.scrollTop=n.offsetTop-.2*$(window).height())}),o(()=>{var e=[];let t=new IntersectionObserver((t,n)=>{t.forEach(t=>{if(t.isIntersecting)e.push(t.target);else for(let n=0;n0?$("div.bd-toc").removeClass("show"):$("div.bd-toc").addClass("show")});let n=[];["margin","margin-caption","full-width","sidebar","popout"].forEach(e=>{n.push("."+e,".tag_"+e,"."+e.replace("-","_"),".tag_"+e.replace("-","_"))}),document.querySelectorAll(n.join(", ")).forEach(e=>{t.observe(e)}),new IntersectionObserver((e,t)=>{e[0].boundingClientRect.y<0?document.body.classList.add("scrolled"):document.body.classList.remove("scrolled")}).observe(document.querySelector(".sbt-scroll-pixel-helper"))}),o((function(){new MutationObserver((e,t)=>{e.forEach(e=>{0!==e.addedNodes.length&&void 0!==e.addedNodes[0].data&&-1!=e.addedNodes[0].data.search("Inserted RTD Footer")&&e.addedNodes.forEach(e=>{document.getElementById("rtd-footer-container").append(e)})})}).observe(document.body,{childList:!0})}))}]); -//# sourceMappingURL=sphinx-book-theme.js.map \ No newline at end of file diff --git a/docs/_static/scripts/sphinx-book-theme.js.map b/docs/_static/scripts/sphinx-book-theme.js.map deleted file mode 100644 index 2d876f800..000000000 --- a/docs/_static/scripts/sphinx-book-theme.js.map +++ /dev/null @@ -1 +0,0 @@ -{"version":3,"sources":["webpack:///webpack/bootstrap","webpack:///./src/sphinx_book_theme/assets/styles/index.scss","webpack:///./src/sphinx_book_theme/assets/scripts/index.js"],"names":["installedModules","__webpack_require__","moduleId","exports","module","i","l","modules","call","m","c","d","name","getter","o","Object","defineProperty","enumerable","get","r","Symbol","toStringTag","value","t","mode","__esModule","ns","create","key","bind","n","object","property","prototype","hasOwnProperty","p","s","sbRunWhenDOMLoaded","cb","document","readyState","addEventListener","attachEvent","window","initThebeSBT","title","$","next","hasClass","insertAfter","initThebe","printPdf","el","tooltipID","attr","tooltipTextDiv","detach","print","append","toggleFullScreen","isInFullScreen","fullscreenElement","webkitFullscreenElement","docElm","documentElement","console","log","exitFullscreen","webkitExitFullscreen","requestFullscreen","webkitRequestFullscreen","ready","tooltip","trigger","delay","show","hide","navbar","getElementById","active_pages","querySelectorAll","active_page","length","undefined","offsetTop","height","scrollTop","onScreenItems","tocObserver","IntersectionObserver","entries","observer","forEach","entry","isIntersecting","push","target","ii","splice","removeClass","addClass","marginSelector","replace","join","observe","boundingClientRect","y","body","classList","add","remove","querySelector","MutationObserver","mutationList","mutation","addedNodes","data","search","node","childList"],"mappings":"aACE,IAAIA,EAAmB,GAGvB,SAASC,EAAoBC,GAG5B,GAAGF,EAAiBE,GACnB,OAAOF,EAAiBE,GAAUC,QAGnC,IAAIC,EAASJ,EAAiBE,GAAY,CACzCG,EAAGH,EACHI,GAAG,EACHH,QAAS,IAUV,OANAI,EAAQL,GAAUM,KAAKJ,EAAOD,QAASC,EAAQA,EAAOD,QAASF,GAG/DG,EAAOE,GAAI,EAGJF,EAAOD,QAKfF,EAAoBQ,EAAIF,EAGxBN,EAAoBS,EAAIV,EAGxBC,EAAoBU,EAAI,SAASR,EAASS,EAAMC,GAC3CZ,EAAoBa,EAAEX,EAASS,IAClCG,OAAOC,eAAeb,EAASS,EAAM,CAAEK,YAAY,EAAMC,IAAKL,KAKhEZ,EAAoBkB,EAAI,SAAShB,GACX,oBAAXiB,QAA0BA,OAAOC,aAC1CN,OAAOC,eAAeb,EAASiB,OAAOC,YAAa,CAAEC,MAAO,WAE7DP,OAAOC,eAAeb,EAAS,aAAc,CAAEmB,OAAO,KAQvDrB,EAAoBsB,EAAI,SAASD,EAAOE,GAEvC,GADU,EAAPA,IAAUF,EAAQrB,EAAoBqB,IAC/B,EAAPE,EAAU,OAAOF,EACpB,GAAW,EAAPE,GAA8B,iBAAVF,GAAsBA,GAASA,EAAMG,WAAY,OAAOH,EAChF,IAAII,EAAKX,OAAOY,OAAO,MAGvB,GAFA1B,EAAoBkB,EAAEO,GACtBX,OAAOC,eAAeU,EAAI,UAAW,CAAET,YAAY,EAAMK,MAAOA,IACtD,EAAPE,GAA4B,iBAATF,EAAmB,IAAI,IAAIM,KAAON,EAAOrB,EAAoBU,EAAEe,EAAIE,EAAK,SAASA,GAAO,OAAON,EAAMM,IAAQC,KAAK,KAAMD,IAC9I,OAAOF,GAIRzB,EAAoB6B,EAAI,SAAS1B,GAChC,IAAIS,EAAST,GAAUA,EAAOqB,WAC7B,WAAwB,OAAOrB,EAAgB,SAC/C,WAA8B,OAAOA,GAEtC,OADAH,EAAoBU,EAAEE,EAAQ,IAAKA,GAC5BA,GAIRZ,EAAoBa,EAAI,SAASiB,EAAQC,GAAY,OAAOjB,OAAOkB,UAAUC,eAAe1B,KAAKuB,EAAQC,IAGzG/B,EAAoBkC,EAAI,GAIjBlC,EAAoBA,EAAoBmC,EAAI,G,sEClFtC,QCSXC,EAAsBC,IACG,WAAvBC,SAASC,WACXF,IACSC,SAASE,iBAClBF,SAASE,iBAAiB,mBAAoBH,GAE9CC,SAASG,YAAY,sBAAsB,WACd,YAAvBH,SAASC,YAA0BF,QAsM7CK,OAAOC,aAjDY,KACjB,IAAIC,EAAQC,EAAE,kBAAkB,GAC3BA,EAAED,GAAOE,OAAOC,SAAS,wBAC5BF,EAAE,iDAAiDG,YAAYH,EAAED,IAEnEK,aA6CFP,OAAOQ,SA7ISC,IAGd,IAAIC,EAAYP,EAAEM,GAAIE,KAAK,oBACvBC,EAAiBT,EAAE,IAAMO,GAAWG,SACxCb,OAAOc,QACPX,EAAE,QAAQY,OAAOH,IAwInBZ,OAAOgB,iBA5LgB,KACrB,IAAIC,EACDrB,SAASsB,mBAAoD,OAA/BtB,SAASsB,mBACvCtB,SAASuB,yBAC6B,OAArCvB,SAASuB,wBACb,IAAIC,EAASxB,SAASyB,gBACjBJ,GAQHK,QAAQC,IAAI,8BACR3B,SAAS4B,eACX5B,SAAS4B,iBACA5B,SAAS6B,sBAClB7B,SAAS6B,yBAXXH,QAAQC,IAAI,+BACRH,EAAOM,kBACTN,EAAOM,oBACEN,EAAOO,yBAChBP,EAAOO,4BAsLbjC,EA7CmB,KACjBS,EAAEP,UAAUgC,OAAM,WAChBzB,EAAE,2BAA2B0B,QAAQ,CACnCC,QAAS,QACTC,MAAO,CAAEC,KAAM,IAAKC,KAAM,YA0ChCvC,EArKqB,KACnB,IAAIwC,EAAStC,SAASuC,eAAe,mBACjCC,EAAeF,EAAOG,iBAAiB,WACvCC,EAAcF,EAAaA,EAAaG,OAAS,QAGnCC,IAAhBF,GACAA,EAAYG,UAAiC,GAArBtC,EAAEH,QAAQ0C,WAElCR,EAAOS,UAAYL,EAAYG,UAAiC,GAArBtC,EAAEH,QAAQ0C,YA6JzDhD,EA9HkB,KAChB,IAAIkD,EAAgB,GACpB,IAkCIC,EAAc,IAAIC,qBAlCA,CAACC,EAASC,KAE9BD,EAAQE,QAASC,IACf,GAAIA,EAAMC,eAERP,EAAcQ,KAAKF,EAAMG,aAGzB,IAAK,IAAIC,EAAK,EAAGA,EAAKV,EAAcL,OAAQe,IAC1C,GAAIV,EAAcU,KAAQJ,EAAMG,OAAQ,CACtCT,EAAcW,OAAOD,EAAI,GACzB,SAOJV,EAAcL,OAAS,EACzBpC,EAAE,cAAcqD,YAAY,QAE5BrD,EAAE,cAAcsD,SAAS,UAqB7B,IAAIC,EAAiB,GAPG,CACtB,SACA,iBACA,aACA,UACA,UAGcT,QAASK,IAEvBI,EAAeN,KAEX,IAAIE,EACJ,QAAQA,EACR,IAAIA,EAAGK,QAAQ,IAAK,KACpB,QAAQL,EAAGK,QAAQ,IAAK,QAI9B/D,SAASyC,iBAAiBqB,EAAeE,KAAK,OAAOX,QAASK,IAC5DT,EAAYgB,QAAQP,KAID,IAAIR,qBAnCO,CAACC,EAASC,KAEpCD,EAAQ,GAAGe,mBAAmBC,EAAI,EACpCnE,SAASoE,KAAKC,UAAUC,IAAI,YAE5BtE,SAASoE,KAAKC,UAAUE,OAAO,cA+BpBN,QAAQjE,SAASwE,cAAc,+BAiEhD1E,GApCA,WAkBmB,IAAI2E,iBAjBG,CAACC,EAActB,KACrCsB,EAAarB,QAASsB,IAEe,IAA/BA,EAASC,WAAWjC,aAGYC,IAAhC+B,EAASC,WAAW,GAAGC,OAGuC,GAA9DF,EAASC,WAAW,GAAGC,KAAKC,OAAO,wBACrCH,EAASC,WAAWvB,QAAS0B,IAC3B/E,SAASuC,eAAe,wBAAwBpB,OAAO4D,SAQtDd,QAAQjE,SAASoE,KADX,CAAEY,WAAW","file":"scripts/sphinx-book-theme.js","sourcesContent":[" \t// The module cache\n \tvar installedModules = {};\n\n \t// The require function\n \tfunction __webpack_require__(moduleId) {\n\n \t\t// Check if module is in cache\n \t\tif(installedModules[moduleId]) {\n \t\t\treturn installedModules[moduleId].exports;\n \t\t}\n \t\t// Create a new module (and put it into the cache)\n \t\tvar module = installedModules[moduleId] = {\n \t\t\ti: moduleId,\n \t\t\tl: false,\n \t\t\texports: {}\n \t\t};\n\n \t\t// Execute the module function\n \t\tmodules[moduleId].call(module.exports, module, module.exports, __webpack_require__);\n\n \t\t// Flag the module as loaded\n \t\tmodule.l = true;\n\n \t\t// Return the exports of the module\n \t\treturn module.exports;\n \t}\n\n\n \t// expose the modules object (__webpack_modules__)\n \t__webpack_require__.m = modules;\n\n \t// expose the module cache\n \t__webpack_require__.c = installedModules;\n\n \t// define getter function for harmony exports\n \t__webpack_require__.d = function(exports, name, getter) {\n \t\tif(!__webpack_require__.o(exports, name)) {\n \t\t\tObject.defineProperty(exports, name, { enumerable: true, get: getter });\n \t\t}\n \t};\n\n \t// define __esModule on exports\n \t__webpack_require__.r = function(exports) {\n \t\tif(typeof Symbol !== 'undefined' && Symbol.toStringTag) {\n \t\t\tObject.defineProperty(exports, Symbol.toStringTag, { value: 'Module' });\n \t\t}\n \t\tObject.defineProperty(exports, '__esModule', { value: true });\n \t};\n\n \t// create a fake namespace object\n \t// mode & 1: value is a module id, require it\n \t// mode & 2: merge all properties of value into the ns\n \t// mode & 4: return value when already ns object\n \t// mode & 8|1: behave like require\n \t__webpack_require__.t = function(value, mode) {\n \t\tif(mode & 1) value = __webpack_require__(value);\n \t\tif(mode & 8) return value;\n \t\tif((mode & 4) && typeof value === 'object' && value && value.__esModule) return value;\n \t\tvar ns = Object.create(null);\n \t\t__webpack_require__.r(ns);\n \t\tObject.defineProperty(ns, 'default', { enumerable: true, value: value });\n \t\tif(mode & 2 && typeof value != 'string') for(var key in value) __webpack_require__.d(ns, key, function(key) { return value[key]; }.bind(null, key));\n \t\treturn ns;\n \t};\n\n \t// getDefaultExport function for compatibility with non-harmony modules\n \t__webpack_require__.n = function(module) {\n \t\tvar getter = module && module.__esModule ?\n \t\t\tfunction getDefault() { return module['default']; } :\n \t\t\tfunction getModuleExports() { return module; };\n \t\t__webpack_require__.d(getter, 'a', getter);\n \t\treturn getter;\n \t};\n\n \t// Object.prototype.hasOwnProperty.call\n \t__webpack_require__.o = function(object, property) { return Object.prototype.hasOwnProperty.call(object, property); };\n\n \t// __webpack_public_path__\n \t__webpack_require__.p = \"\";\n\n\n \t// Load entry module and return exports\n \treturn __webpack_require__(__webpack_require__.s = 0);\n","export default __webpack_public_path__ + \"styles/sphinx-book-theme.css\";","// Import CSS variables\n// ref: https://css-tricks.com/getting-javascript-to-talk-to-css-and-sass/\nimport \"../styles/index.scss\";\n\n/**\n * A helper function to load scripts when the DOM is loaded.\n * This waits for everything to be on the page first before running, since\n * some functionality doesn't behave properly until everything is ready.\n */\nvar sbRunWhenDOMLoaded = (cb) => {\n if (document.readyState != \"loading\") {\n cb();\n } else if (document.addEventListener) {\n document.addEventListener(\"DOMContentLoaded\", cb);\n } else {\n document.attachEvent(\"onreadystatechange\", function () {\n if (document.readyState == \"complete\") cb();\n });\n }\n};\n\n/**\n * Toggle full-screen with button\n *\n * There are some browser-specific hacks in here:\n * - Safari requires a `webkit` prefix, so this uses conditionals to check for that\n * ref: https://developer.mozilla.org/en-US/docs/Web/API/Fullscreen_API\n */\nvar toggleFullScreen = () => {\n var isInFullScreen =\n (document.fullscreenElement && document.fullscreenElement !== null) ||\n (document.webkitFullscreenElement &&\n document.webkitFullscreenElement !== null);\n let docElm = document.documentElement;\n if (!isInFullScreen) {\n console.log(\"[SBT]: Entering full screen\");\n if (docElm.requestFullscreen) {\n docElm.requestFullscreen();\n } else if (docElm.webkitRequestFullscreen) {\n docElm.webkitRequestFullscreen();\n }\n } else {\n console.log(\"[SBT]: Exiting full screen\");\n if (document.exitFullscreen) {\n document.exitFullscreen();\n } else if (document.webkitExitFullscreen) {\n document.webkitExitFullscreen();\n }\n }\n};\n\n/**\n * Sidebar scroll on load.\n *\n * Detect the active page in the sidebar, and scroll so that it is centered on\n * the screen.\n */\nvar scrollToActive = () => {\n var navbar = document.getElementById(\"site-navigation\");\n var active_pages = navbar.querySelectorAll(\".active\");\n var active_page = active_pages[active_pages.length - 1];\n // Only scroll the navbar if the active link is lower than 50% of the page\n if (\n active_page !== undefined &&\n active_page.offsetTop > $(window).height() * 0.5\n ) {\n navbar.scrollTop = active_page.offsetTop - $(window).height() * 0.2;\n }\n};\n\n/**\n * Called when the \"print to PDF\" button is clicked.\n * This is a hack to prevent tooltips from showing up in the printed PDF.\n */\nvar printPdf = (el) => {\n // Detach the tooltip text from DOM to hide in PDF\n // and then reattach it for HTML\n let tooltipID = $(el).attr(\"aria-describedby\");\n let tooltipTextDiv = $(\"#\" + tooltipID).detach();\n window.print();\n $(\"body\").append(tooltipTextDiv);\n};\n\n/**\n * Manage scrolling behavior. This is primarily two things:\n *\n * 1. Hide the Table of Contents any time sidebar content is on the screen.\n *\n * This will be triggered any time a sidebar item enters or exits the screen.\n * It adds/removes items from an array if they have entered the screen, and\n * removes them when they exit the screen. It hides the TOC if anything is\n * on-screen.\n *\n * ref: https://developer.mozilla.org/en-US/docs/Web/API/Intersection_Observer_API\n *\n * 2. Add a `scrolled` class to to trigger CSS changes.\n */\nvar initTocHide = () => {\n var onScreenItems = [];\n let hideTocCallback = (entries, observer) => {\n // Check whether any sidebar item is displayed\n entries.forEach((entry) => {\n if (entry.isIntersecting) {\n // If an element just came on screen, add it our list\n onScreenItems.push(entry.target);\n } else {\n // Otherwise, if it's in our list then remove it\n for (let ii = 0; ii < onScreenItems.length; ii++) {\n if (onScreenItems[ii] === entry.target) {\n onScreenItems.splice(ii, 1);\n break;\n }\n }\n }\n });\n\n // Hide the TOC if any margin content is displayed on the screen\n if (onScreenItems.length > 0) {\n $(\"div.bd-toc\").removeClass(\"show\");\n } else {\n $(\"div.bd-toc\").addClass(\"show\");\n }\n };\n let manageScrolledClassOnBody = (entries, observer) => {\n // The pixel is at the top, so if we're < 0 that it means we've scrolled\n if (entries[0].boundingClientRect.y < 0) {\n document.body.classList.add(\"scrolled\");\n } else {\n document.body.classList.remove(\"scrolled\");\n }\n };\n\n // Set up the intersection observer to watch all margin content\n let tocObserver = new IntersectionObserver(hideTocCallback);\n const selectorClasses = [\n \"margin\",\n \"margin-caption\",\n \"full-width\",\n \"sidebar\",\n \"popout\",\n ];\n let marginSelector = [];\n selectorClasses.forEach((ii) => {\n // Use three permutations of each class name because `tag_` and `_` used to be supported\n marginSelector.push(\n ...[\n `.${ii}`,\n `.tag_${ii}`,\n `.${ii.replace(\"-\", \"_\")}`,\n `.tag_${ii.replace(\"-\", \"_\")}`,\n ]\n );\n });\n document.querySelectorAll(marginSelector.join(\", \")).forEach((ii) => {\n tocObserver.observe(ii);\n });\n\n // Set up the observer to check if we've scrolled from top of page\n let scrollObserver = new IntersectionObserver(manageScrolledClassOnBody);\n scrollObserver.observe(document.querySelector(\".sbt-scroll-pixel-helper\"));\n};\n\n/**\n * Activate Thebe with a custom button click.\n */\nvar initThebeSBT = () => {\n var title = $(\"div.section h1\")[0];\n if (!$(title).next().hasClass(\"thebe-launch-button\")) {\n $(\"\").insertAfter($(title));\n }\n initThebe();\n};\n\n/**\n * Use Bootstrap helper function to enable tooltips.\n */\nvar initTooltips = () => {\n $(document).ready(function () {\n $('[data-toggle=\"tooltip\"]').tooltip({\n trigger: \"hover\",\n delay: { show: 500, hide: 100 },\n });\n });\n};\n\n/**\n * MutationObserver to move the ReadTheDocs button\n */\nfunction initRTDObserver() {\n const mutatedCallback = (mutationList, observer) => {\n mutationList.forEach((mutation) => {\n // Check whether the mutation is for RTD, which will have a specific structure\n if (mutation.addedNodes.length === 0) {\n return;\n }\n if (mutation.addedNodes[0].data === undefined) {\n return;\n }\n if (mutation.addedNodes[0].data.search(\"Inserted RTD Footer\") != -1) {\n mutation.addedNodes.forEach((node) => {\n document.getElementById(\"rtd-footer-container\").append(node);\n });\n }\n });\n };\n\n const observer = new MutationObserver(mutatedCallback);\n const config = { childList: true };\n observer.observe(document.body, config);\n}\n\n/**\n * Set up callback functions for UI click actions\n */\nwindow.initThebeSBT = initThebeSBT;\nwindow.printPdf = printPdf;\nwindow.toggleFullScreen = toggleFullScreen;\n\n/**\n * Set up functions to load when the DOM is ready\n */\nsbRunWhenDOMLoaded(initTooltips);\nsbRunWhenDOMLoaded(scrollToActive);\nsbRunWhenDOMLoaded(initTocHide);\nsbRunWhenDOMLoaded(initRTDObserver);\n"],"sourceRoot":""} \ No newline at end of file diff --git a/docs/_static/searchtools.js b/docs/_static/searchtools.js deleted file mode 100644 index 0a44e8582..000000000 --- a/docs/_static/searchtools.js +++ /dev/null @@ -1,525 +0,0 @@ -/* - * searchtools.js - * ~~~~~~~~~~~~~~~~ - * - * Sphinx JavaScript utilities for the full-text search. - * - * :copyright: Copyright 2007-2022 by the Sphinx team, see AUTHORS. - * :license: BSD, see LICENSE for details. - * - */ - -if (!Scorer) { - /** - * Simple result scoring code. - */ - var Scorer = { - // Implement the following function to further tweak the score for each result - // The function takes a result array [filename, title, anchor, descr, score] - // and returns the new score. - /* - score: function(result) { - return result[4]; - }, - */ - - // query matches the full name of an object - objNameMatch: 11, - // or matches in the last dotted part of the object name - objPartialMatch: 6, - // Additive scores depending on the priority of the object - objPrio: {0: 15, // used to be importantResults - 1: 5, // used to be objectResults - 2: -5}, // used to be unimportantResults - // Used when the priority is not in the mapping. - objPrioDefault: 0, - - // query found in title - title: 15, - partialTitle: 7, - // query found in terms - term: 5, - partialTerm: 2 - }; -} - -if (!splitQuery) { - function splitQuery(query) { - return query.split(/\s+/); - } -} - -/** - * Search Module - */ -var Search = { - - _index : null, - _queued_query : null, - _pulse_status : -1, - - htmlToText : function(htmlString) { - var virtualDocument = document.implementation.createHTMLDocument('virtual'); - var htmlElement = $(htmlString, virtualDocument); - htmlElement.find('.headerlink').remove(); - docContent = htmlElement.find('[role=main]')[0]; - if(docContent === undefined) { - console.warn("Content block not found. Sphinx search tries to obtain it " + - "via '[role=main]'. Could you check your theme or template."); - return ""; - } - return docContent.textContent || docContent.innerText; - }, - - init : function() { - var params = $.getQueryParameters(); - if (params.q) { - var query = params.q[0]; - $('input[name="q"]')[0].value = query; - this.performSearch(query); - } - }, - - loadIndex : function(url) { - $.ajax({type: "GET", url: url, data: null, - dataType: "script", cache: true, - complete: function(jqxhr, textstatus) { - if (textstatus != "success") { - document.getElementById("searchindexloader").src = url; - } - }}); - }, - - setIndex : function(index) { - var q; - this._index = index; - if ((q = this._queued_query) !== null) { - this._queued_query = null; - Search.query(q); - } - }, - - hasIndex : function() { - return this._index !== null; - }, - - deferQuery : function(query) { - this._queued_query = query; - }, - - stopPulse : function() { - this._pulse_status = 0; - }, - - startPulse : function() { - if (this._pulse_status >= 0) - return; - function pulse() { - var i; - Search._pulse_status = (Search._pulse_status + 1) % 4; - var dotString = ''; - for (i = 0; i < Search._pulse_status; i++) - dotString += '.'; - Search.dots.text(dotString); - if (Search._pulse_status > -1) - window.setTimeout(pulse, 500); - } - pulse(); - }, - - /** - * perform a search for something (or wait until index is loaded) - */ - performSearch : function(query) { - // create the required interface elements - this.out = $('#search-results'); - this.title = $('

' + _('Searching') + '

').appendTo(this.out); - this.dots = $('').appendTo(this.title); - this.status = $('

 

').appendTo(this.out); - this.output = $('