-
Notifications
You must be signed in to change notification settings - Fork 0
/
Rstudio_python.Rmd
423 lines (337 loc) · 13.4 KB
/
Rstudio_python.Rmd
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
---
title: "BigData"
output: html_document
---
```{r setup, include=FALSE}
knitr::opts_chunk$set(echo = TRUE)
options(encoding = "UTF-8")
knitr::knit_engines$set(python = reticulate::eng_python)
```
```{python}
import csv
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
from scipy import stats as st
from sklearn import preprocessing
from sklearn import metrics
from sklearn import linear_model
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import StratifiedKFold
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import GridSearchCV
from sklearn import svm
from sklearn.metrics import roc_curve, auc
import statsmodels.api as sm
import seaborn as sns
from scipy import *
sns.set(style="white")
sns.set(style="whitegrid", color_codes=True)
```
```{python}
import warnings
warnings.filterwarnings("ignore", category=FutureWarning)
warnings.filterwarnings("ignore",category=DeprecationWarning)
```
```{python}
# Importation du fichier
file = open("dataset1_train.txt", "r")
dataset = pd.read_csv(file, sep=" ")
# Récupération du noms des différentes variables
title = list(dataset.columns)
# Variable d'intérêt
reponse = 'y'
# Variable identifiant s'il y en a une, sinon indiquer 'NaN'
input4 = 'NaN'
if input4 != 'NaN' :
# On supprime cette variable
dataset = dataset.drop(input4, 1)
# Suppression des instances ayant des données manquantes
dataset = dataset.dropna(how = 'any')
# Forme des résultats
input6 = 'courbe roc'
# Nombre total d'instances
total_rows = len(dataset)
# Nombre total de variables
total_columns = len(list(dataset))
dataset.head()
```
```{python}
input2 = "espace"
```
```{python}
dataset.head()
```
```{python}
y = dataset[reponse]
y_values = list(y)
```
Dimension de votre dataset
```{python}
print(dataset.shape)
```
Visualisation du résumé de la variable d'intérêt
```{python}
y.describe()
classe = list(set(y))
nb_classe = len(list(set(y))) # Taille de la liste contenant la variable d'intérêt sans doublon
print("Différentes classes de la variable d'intérêt : ", classe)
print("Nombre de classes : ", nb_classe)
```
```{python}
sns.countplot(x = reponse, data = dataset, palette = 'hls')
plt.show()
```
```{python}
# Division du dataset
xTrain, xTest = train_test_split(dataset, train_size=int(total_rows*(2/3)), test_size=int(total_rows*(1/3)))
# Vérifications
print("Dimension du dataset d'apprentissage : " + str(xTrain.shape))
print("Dimension du dataset de test : " + str(xTest.shape))
```
```{python}
# Récupération des variables explicatives du dataset apprentissage et du dataset test
XTrain = xTrain.iloc[:,:total_columns-1]
XTest = xTest.iloc[:,:total_columns-1]
# Vérification
print("Dataset d'apprentissage : \n")
print(XTrain.shape)
print(XTrain.head())
print("\nDataset test : \n")
print(XTest.shape)
print(XTest.head())
```
```{python}
# Isolation de la variable d'intérêt
yTrain = xTrain.iloc[:,total_columns-1]
yTrain_values = list(yTrain)
yTest = xTest.iloc[:,total_columns-1]
yTest_values = list(yTest)
```
```{python}
# Vérification que les classes soient bien réparties dans les 2 datasets
# Dataset apprentissage
# /!\ Représentation graphique ou juste afficher nb_occ, je sais pas
sns.countplot(x = reponse, data = xTrain, palette = 'hls')
plt.show()
xTrain[reponse].value_counts()
# Dataset test
sns.countplot(x = reponse, data = xTest, palette = 'hls')
plt.show()
xTest[reponse].value_counts()
```
```{python}
# Regression logistique
# Construction d'un objet permettant de réaliser une régression logistique
logit_model=linear_model.LogisticRegression()
logit_model.fit(XTrain,yTrain)
pred_rl = logit_model.predict(XTest)
# Performance du modèle
score_glm = logit_model.score(XTest, yTest)
```
```{python}
# Random Forest
# Traitement des données.
# S'il s'agit de str pour la variable d'intérêt, il faut la convertir en int pour appliquer RandomForestClassifier
yTrain_ = [0]*len(yTrain_values)
for i in range(nb_classe):
for j in range(len(yTrain_values)):
if(yTrain_values[j]==classe[i]):
yTrain_[j]=i
yTest_ = [0]*len(yTest_values)
for i in range(nb_classe):
for j in range(len(yTest_values)):
if(yTest_values[j]==classe[i]):
yTest_[j]=i
rf_model = RandomForestClassifier()
# Etablissement des différents paramètres à tester
parameter_grid = {'n_estimators': [10, 25, 50, 100],
'criterion': ['gini', 'entropy'],
'max_features': [1, 2, 3, 4]}
# Cross Validation (on fait tourner 10 fois le modele sur differents découpage)
cross_validation = StratifiedKFold(n_splits=10)
# Sélection des meilleurs paramètres
grid_search = GridSearchCV(rf_model,
param_grid=parameter_grid,
cv=cross_validation)
grid_search.fit(XTrain, yTrain_)
# Visualisation des meilleurs paramètres
print('Best parameters: {}'.format(grid_search.best_params_))
# Stockage des meilleurs paramètres
nestim_best = grid_search.best_params_['n_estimators']
criterion_best = grid_search.best_params_['criterion']
max_features_best = grid_search.best_params_['max_features']
# Mise en place du modèle avec les meilleurs paramètres
rf_model = RandomForestClassifier(n_estimators = nestim_best, criterion = criterion_best, max_features = max_features_best)
rf_model.fit(XTrain, yTrain_)
pred_rf = list(rf_model.predict(XTest))
pred_rf = np.array(pred_rf).reshape(-1,1)
yTest_ = np.array(yTest_).reshape(-1,1)
# Performance du modèle
score_rf = np.sum(pred_rf==yTest_)/len(pred_rf)
```
```{python}
# Arbre CART
cart_model = DecisionTreeClassifier()
# Etablissement des différents paramètres à tester
parameter_grid = {'max_depth': [1, 2, 3, 4, 5],
'max_features': [1, 2, 3, 4]}
# Cross Validation (on fait tourner 10 fois le modele sur differents découpage)
cross_validation = StratifiedKFold(n_splits=10)
# Sélection des meilleurs paramètres
grid_search = GridSearchCV(cart_model,
param_grid=parameter_grid,
cv=cross_validation)
grid_search.fit(XTrain, yTrain_)
# Visualisation des meilleurs paramètres
print('Meilleurs parametres: {}'.format(grid_search.best_params_))
# Stockage des meilleurs paramètres
max_depth_best = grid_search.best_params_['max_depth']
max_features_best = grid_search.best_params_['max_features']
# Mise en place du modèle avec les meilleurs paramètres
cart_model = DecisionTreeClassifier(max_depth = max_depth_best, max_features = max_features_best)
cart_model.fit(XTrain, yTrain_)
pred_cart = list(cart_model.predict(XTest))
pred_cart = np.array(pred_cart).reshape(-1,1)
# Performance du modèle
score_cart = np.sum(pred_cart==yTest_)/len(pred_cart)
```
```{python}
# SVM
svm_model = svm.SVC()
# Etablissement des différents paramètres à tester
parameter_grid = {'gamma': [0.1, 1, 10],
'kernel': ['linear', 'poly'],
'C': [0.1, 1, 10]}
# Cross Validation (on fait tourner 10 fois le modele sur differents découpage)
cross_validation = StratifiedKFold(n_splits = 2)
# Sélection des meilleurs paramètres
grid_search = GridSearchCV(svm_model,
param_grid = parameter_grid,
cv = cross_validation)
grid_search.fit(XTrain, yTrain_)
# Visualisation des meilleurs paramètres
print('Meilleurs parametres: {}'.format(grid_search.best_params_))
# Stockage des meilleurs paramètres
gamma_best = grid_search.best_params_['gamma']
kernel_best = grid_search.best_params_['kernel']
cs_best = grid_search.best_params_['C']
# Mise en place du modèle avec les meilleurs paramètres
svm_model = svm.SVC(gamma = gamma_best, kernel = kernel_best, C = cs_best, probability = True)
svm_model.fit(XTrain, yTrain_)
pred_svm = list(svm_model.predict(XTest))
pred_svm = np.array(pred_svm).reshape(-1,1)
# Performance du modèle
score_svm = np.sum(pred_svm==yTest_)/len(pred_svm)
```
```{python}
# Affichage des résultats
if input6 == 'erreur test' :
print("Précision de la Régression Logistique : ", round(score_glm*100,4), "%\n")
print("Précision du Random Forest : ", round(score_rf*100,4), "%\n")
print("Précision de l'arbre CART : ", round(score_cart*100,4), "%\n")
print("Précision de SVM : ", round(score_svm*100,4), "%\n")
err = [round(score_glm*100,4),round(score_rf*100,4),round(score_cart*100,4),round(score_svm*100,4)]
ind = err.index(max(err))
```
```{python}
# Affichage des résultats sous forme de matrice de confusion
if input6 == 'matrice de confusion' :
print("Matrice de confusion de la Régression Logistique:")
cm_rl = metrics.confusion_matrix(yTest, pred_rl)
plt.figure(figsize=(nb_classe+2,nb_classe+2))
sns.heatmap(cm_rl, annot=True, fmt=".2f", linewidths=.3, square = True, cmap = "PiYG");
plt.ylabel('Observés');
plt.xlabel('Prédis');
title = 'Score de prédiction: {0}'.format(round(score_glm*100,4))
plt.title(title, size = 13)
plt.show()
print("\nMatrice de confusion du Random Forest:")
cm_rf = metrics.confusion_matrix(yTest_, pred_rf)
plt.figure(figsize=(nb_classe+2,nb_classe+2))
sns.heatmap(cm_rf, annot=True, fmt=".2f", linewidths=.3, square = True, cmap = "PiYG");
plt.ylabel('Observés');
plt.xlabel('Prédis');
title = 'Score de prédiction: {0}'.format(round(score_rf*100,4))
plt.title(title, size = 13)
plt.show()
print("\nMatrice de confusion de CART:")
cm_cart = metrics.confusion_matrix(yTest_, pred_cart)
plt.figure(figsize=(nb_classe+2,nb_classe+2))
sns.heatmap(cm_cart, annot=True, fmt=".2f", linewidths=.3, square = True, cmap = "PiYG");
plt.ylabel('Observés');
plt.xlabel('Prédis');
title = 'Score de prédiction: {0}'.format(round(score_cart*100,4))
plt.title(title, size = 13)
plt.show()
print("\nMatrice de confusion SVM :")
cm_svm = metrics.confusion_matrix(yTest_, pred_svm)
plt.figure(figsize=(nb_classe+2,nb_classe+2))
sns.heatmap(cm_svm, annot=True, fmt=".2f", linewidths=.3, square = True, cmap = "PiYG");
plt.ylabel('Observés');
plt.xlabel('Prédis');
title = 'Score de prédiction: {0}'.format(round(score_svm*100,4))
plt.title(title, size = 13)
plt.show()
err = [round(score_glm*100,4),round(score_rf*100,4),round(score_cart*100,4),round(score_svm*100,4)]
ind = err.index(max(err))
```
```{python}
# Affichage des résultats sous forme de courbe ROC
if input6 == 'courbe roc' :
plt.clf()
probas_rl = logit_model.predict_proba(XTest)
# probas est une matrice de deux colonnes avec la proabilités d'appartenance à chaque classe
fpr_rl, tpr_rl, thresholds_rl = roc_curve(yTest_, probas_rl[:, 1])
roc_auc_rl = auc(fpr_rl, tpr_rl)
plt.plot(fpr_rl, tpr_rl, label='RL (aire = %0.2f)' % roc_auc_rl)
probas_rf = rf_model.predict_proba(XTest)
fpr_rf, tpr_rf, thresholds_rf = roc_curve(yTest_, probas_rf[:, 1])
roc_auc_rf = auc(fpr_rf, tpr_rf)
plt.plot(fpr_rf, tpr_rf, label='RF (aire = %0.2f)' % roc_auc_rf)
probas_cart = cart_model.predict_proba(XTest)
fpr_cart, tpr_cart, thresholds_cart = roc_curve(yTest_, probas_cart[:, 1])
roc_auc_cart = auc(fpr_cart, tpr_cart)
plt.plot(fpr_cart, tpr_cart, label='CART (aire = %0.2f)' % roc_auc_cart)
probas_svm = svm_model.predict_proba(XTest)
fpr_svm, tpr_svm, thresholds_svm = roc_curve(yTest_, probas_svm[:, 1])
roc_auc_svm = auc(fpr_svm, tpr_svm)
plt.plot(fpr_svm, tpr_svm, label='SVM (aire = %0.2f)' % roc_auc_svm)
plt.plot([0, 1], [0, 1], 'k--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.0])
plt.xlabel('Taux de faux positifs')
plt.ylabel('Taux de vrais positifs')
plt.title('Courbe ROC ')
plt.legend(loc="lower right")
plt.show()
err = [round(roc_auc_rl*100,4),round(roc_auc_rf*100,4),round(roc_auc_cart*100,4),round(roc_auc_svm*100,4)]
ind = err.index(max(err))
```
```{python}
if ind == 0 :
print("La méthode utilisée pour la prédiction de votre dataset sera la Régression Logistique avec une précision de ", round(score_glm*100,2), "% !\n")
elif ind == 1 :
print("La méthode utilisée pour la prédiction de votre dataset sera Random Forest avec une précision de ", round(score_rf*100,2), "% !\n")
elif ind == 2 :
print("La méthode utilisée pour la prédiction de votre dataset sera CART avec une précision de ", round(score_cart*100,2), "% !\n")
else :
print("La méthode utilisée pour la prédiction de votre dataset sera SVM avec une précision de ", round(score_svm*100,2), "% !\n")
```
```{python}
# Importation du fichier
file2 = open('dataset1_pred.txt', "r")
dataset2 = pd.read_csv(file2, sep=' ')
if input4 != 'NaN' :
dataset2 = dataset2.drop(input4, 1)
# On cherche la méthode sélectionné et on effectue la prédiction à partir de ce modèle
if ind == 0 :
pred = logit_model.predict(dataset2)
elif ind == 1 :
pred = rf_model.predict(dataset2)
elif ind == 2 :
pred = cart_model.predict(dataset2)
else :
pred = svm_model.predict(dataset2)
```