这篇论文 DARTS: Differentiable Architecture Search 通过以可区分的方式制定任务来解决体系结构搜索的可伸缩性挑战。 此方法基于架构的连续放松的表示,从而允许在架构搜索时能使用梯度下降。
作者的代码可以在小批量中交替优化网络权重和体系结构权重。 还进一步探讨了使用二阶优化(unroll)来替代一阶,来提高性能的可能性。
NNI 的实现是基于 官方实现 和 热门的第三方 repo。 NNI 上的 DARTS 设计为可用于任何搜索空间。 与原始论文一样,为 CIFAR10 实现了 CNN 的搜索空间,来作为 DARTS 的实际示例。
上述示例旨在重现本文中的结果,我们进行了一阶和二阶优化实验。 由于时间限制,我们仅从第二阶段重新训练了 一次最佳架构。 我们的结果目前与论文的结果相当。 稍后会增加更多结果
论文中 | 重现 | |
---|---|---|
一阶(CIFAR10) | 3.00 +/- 0.14 | 2.78 |
二阶(CIFAR10) | 2.76 +/- 0.09 | 2.80 |
:githublink:`示例代码 <examples/nas/darts>`
#如果未克隆 NNI 代码。 如果代码已被克隆,请忽略此行并直接进入代码目录。
git clone https://github.com/Microsoft/nni.git
# 搜索最优结构
cd examples/nas/darts
python3 search.py
# 训练最优结构
python3 retrain.py --arc-checkpoint ./checkpoints/epoch_49.json
.. autoclass:: nni.algorithms.nas.pytorch.darts.DartsTrainer :members:
.. autoclass:: nni.algorithms.nas.pytorch.darts.DartsMutator :members:
- DARTS 不支持 DataParallel,若要支持 DistributedDataParallel,则需要定制。