Сглаживание маркировок помогает улучшить производительность модели, делая ее менее уверенной в своих прогнозах. Вместо того чтобы пытаться заставить ее предсказать 1 для спрогнозированного класса, мы изменим ее так, чтобы она прогнозировала 1 минус небольшое значение, эпсилон. Мы можем создать новую реализацию функции потерь, которая обернет уже существующую функцию CrossEntropy Loss. В программах можно смело заменять CrossEntropyLoss() на LabelSmoothingCrossEntropyLoss().
Часто нужно использовать предобученную модель на чб картинках для ускорения работы нейронок. В скрипте показано, как можно изменить вход с 3-х каналов на 1, чтобы можно было использовать модель для чб картинок. Суть заключается в мердже 3-х слоев первой свертки в один слой.