diff --git "a/AI\347\256\227\346\263\225/machine-learning/RandomForest.md" "b/AI\347\256\227\346\263\225/machine-learning/RandomForest.md" index 54fc9c0..d8adc21 100644 --- "a/AI\347\256\227\346\263\225/machine-learning/RandomForest.md" +++ "b/AI\347\256\227\346\263\225/machine-learning/RandomForest.md" @@ -34,7 +34,7 @@ ## 4. 为什么不用全样本训练? -全样本训练忽视了局部样本的规律(各个决策树趋于相同),对于模型的泛化能力是有害的,使随机森林算法在羊本层面失去了随机性。 +全样本训练忽视了局部样本的规律(各个决策树趋于相同),对于模型的泛化能力是有害的,使随机森林算法在样本层面失去了随机性。 ## 5. 为什么要随机特征? diff --git "a/AI\347\256\227\346\263\225/machine-learning/metrics.md" "b/AI\347\256\227\346\263\225/machine-learning/metrics.md" index 3fae52e..9c5f76c 100644 --- "a/AI\347\256\227\346\263\225/machine-learning/metrics.md" +++ "b/AI\347\256\227\346\263\225/machine-learning/metrics.md" @@ -74,7 +74,7 @@ Acc与Error平等对待每个类别,即每一个样本判对 (0) 和判错 (1) ![image-20210616223053609](img/Metrics/image-20210616223053609.png) -### 准确率(查准率) Precision +### 精确率(查准率) Precision Precision 是分类器预测的正样本中预测正确的比例,取值范围为[0,1],取值越大,模型预测能力越好。 $$ diff --git "a/AI\347\256\227\346\263\225/machine-learning/\350\277\207\346\213\237\345\220\210\344\270\216\346\254\240\346\213\237\345\220\210.md" "b/AI\347\256\227\346\263\225/machine-learning/\350\277\207\346\213\237\345\220\210\344\270\216\346\254\240\346\213\237\345\220\210.md" index cf401c6..90066de 100644 --- "a/AI\347\256\227\346\263\225/machine-learning/\350\277\207\346\213\237\345\220\210\344\270\216\346\254\240\346\213\237\345\220\210.md" +++ "b/AI\347\256\227\346\263\225/machine-learning/\350\277\207\346\213\237\345\220\210\344\270\216\346\254\240\346\213\237\345\220\210.md" @@ -100,7 +100,7 @@ 参考链接: https://www.zhihu.com/question/37096933/answer/475278057 -## 7. Dropout为什么有助于过拟合?(重点) +## 7. Dropout为什么有助于防止过拟合?(重点) * 取平均的作用