Skip to content

Commit

Permalink
Jhan - TBM
Browse files Browse the repository at this point in the history
  • Loading branch information
salazarjhan95 committed Sep 26, 2023
1 parent c0107b5 commit 4384fdb
Show file tree
Hide file tree
Showing 3 changed files with 3 additions and 1 deletion.
1 change: 1 addition & 0 deletions 07-tbm.Rmd
Original file line number Diff line number Diff line change
Expand Up @@ -16,6 +16,7 @@ Del mismo modo, para contruir estos árboles, en teoría, las regiones pueden to
$$\sum_{j=1}^{J}\sum_{i\epsilon R_{j}}(y_{i}-\hat{y}_{R_{j}})^2$$
Donde $\hat{y}_{R_{j}}$ es la media de la respuesta para las observaciones de entrenamiento dentro de la *j*ésima caja.

Desafortunadamente, es computacionalmente difícil considerar cada partición para cada una de las características de las *J* cajas. Por ello, se usa un enfoque de *arriba hacia abaja* y *avaro*, el cual se conoce como ramificación binaria recursiva. Se dice que es tiene un enfoque de *arriba hacia abajo*, porque comienza desde arriba del árbol raminifcando cada uno de los predictores, cada una de estas ramificación da origen a nuevas ramas más abajo en el árbol. Del mismo modo, se dice que es *avaro*, porque cada paso de la contrucción del árbol la mejor ramificación se hace en esa ramificación en lugar de mirar hacia adelante y elegir una ramificación que podría resultan en un mejor árbol en el futuro.

## Decision trees
## Boosting and bagging
Expand Down
1 change: 1 addition & 0 deletions docs/métodos-basados-en-árboles-jhan.html
Original file line number Diff line number Diff line change
Expand Up @@ -256,6 +256,7 @@ <h2><span class="header-section-number">7.1</span> Árboles de regresión<a href
<p>Del mismo modo, para contruir estos árboles, en teoría, las regiones pueden tomar cualquier forma. Sin embargo, podemos dividir los predictores en en <em>cajas</em> de altas dimensiones, esto para simplificar la interpretabilidad de los resultados del modelo. El objetivo de esto es encontrar las cajas <span class="math inline">\(R_{1}\)</span>,…,<span class="math inline">\(R_{j}\)</span> que minimicen el RSS, esto está dado por</p>
<p><span class="math display">\[\sum_{j=1}^{J}\sum_{i\epsilon R_{j}}(y_{i}-\hat{y}_{R_{j}})^2\]</span>
Donde <span class="math inline">\(\hat{y}_{R_{j}}\)</span> es la media de la respuesta para las observaciones de entrenamiento dentro de la <em>j</em>ésima caja.</p>
<p>Desafortunadamente, es computacionalmente difícil considerar cada partición para cada una de las características de las <em>J</em> cajas. Por ello, se usa un enfoque de <em>arriba hacia abaja</em> y <em>avaro</em>, el cual se conoce como ramificación binaria recursiva. Se dice que es tiene un enfoque de <em>arriba hacia abajo</em>, porque comienza desde arriba del árbol raminifcando cada uno de los predictores, cada una de estas ramificación da origen a nuevas ramas más abajo en el árbol. Del mismo modo, se dice que es <em>avaro</em>, porque cada paso de la contrucción del árbol la mejor ramificación se hace en esa ramificación en lugar de mirar hacia adelante y elegir una ramificación que podría resultan en un mejor árbol en el futuro.</p>
</div>
<div id="decision-trees" class="section level2 hasAnchor" number="7.2">
<h2><span class="header-section-number">7.2</span> Decision trees<a href="métodos-basados-en-árboles-jhan.html#decision-trees" class="anchor-section" aria-label="Anchor link to header"></a></h2>
Expand Down
2 changes: 1 addition & 1 deletion docs/search_index.json

Large diffs are not rendered by default.

0 comments on commit 4384fdb

Please sign in to comment.