Skip to content

Commit

Permalink
Bootstrap - Jhan
Browse files Browse the repository at this point in the history
  • Loading branch information
salazarjhan95 committed Sep 7, 2023
1 parent 1584b97 commit 1b493f0
Show file tree
Hide file tree
Showing 3 changed files with 18 additions and 3 deletions.
11 changes: 10 additions & 1 deletion 06-lmsreg.Rmd
Original file line number Diff line number Diff line change
Expand Up @@ -4,7 +4,16 @@ En este capítulos vamos a extender lo que sabemos hasta ahora de modelos lineal

* *Precisión de la predicción*: Esto provee la relación verdadera entre la respuesta y los predictores es aproximadamente lineal, donde los estimados de mínimos cuadrados tendrían un bajo sesgo. Cuando el número de observaciones *n* es mayor al número de variables *p*, entonces los estimados de mínimos cuadrados van a tender a tener baja varianza, lo cual causa que este sea efectivo en observaciones de prueba. Mientras que cuando *n* no es mucho más grande que *p*, entonces hay una alta variablilldad en el ajuste de los mínimos cuadrados, lo cual resulta en una sobreestimación y baja predictabilidad en observaciones futuras que no fueron utilizadas en el modelo. Cuando el número de predictores es mayor que el número de observaciones, no hay un solo estimado del coeficiente de mínimos cuadrados, es decir, la varianza es infinita, lo cual no permite que se puede usar este método. Por medio de *restringir* o *contraer* los coeficientes estimados podemos reducir la varianza a costo de aumentar el sesgo. Esto puede dar como resultados el mejorar al precisión, lo cual permite predecir la respoestado de observaciones que no fueron usadas en el modelo de entrenamiento.

* *Interpretabilidad del modelo*:
* *Interpretabilidad del modelo*: Esto se refiere a eliminar variables *innecesarias* que solo le agregan complejidad al modelo -por medio de ajustar los coeficientes de los estimados a cero. De esta manera, el modelo se vuelvo muchos mas interpretable. No obstante, hay que tener en cuenta que en los mínimos cuadrados es poco pobable obtener estimados de coeficientes que den exactamente cero.

Hay diferentes alternativas para ajustar el uso de los mínimos cuadrados.

* *selección de subconjunto*: Este procedimiento trata de identificar un subconjunto de *p* predictores que se cree que están relacionados con la respuesta, para luego ajustar el modelo usado en los mínimos caudrados para reducir el conjunto de variables.

* *Contracción*: Este procedimiento requiere ajustar un modelo con todos *p* predictores.

* *Reducción dimensiones*:


## Selección de subconjuntos

Expand Down
2 changes: 1 addition & 1 deletion docs/search_index.json

Large diffs are not rendered by default.

8 changes: 7 additions & 1 deletion docs/selección-de-modelos-lineares-y-regularización.html
Original file line number Diff line number Diff line change
Expand Up @@ -254,7 +254,13 @@ <h1><span class="header-section-number">Capitulo 6</span> Selección de modelos
<p>En este capítulos vamos a extender lo que sabemos hasta ahora de modelos lineales. En otras palabras, vamos ahabalr sobre cómmo podemos mejorar los modelos lineales simples, por medio de reemplazar los ajuste de mínimos caudrados con procedimientos alternativos de ajuste. Lo cual hace que haya una mejor la <em>precisión de la predicción</em> y la <em>interpretabilidad del modelo</em>.</p>
<ul>
<li><p><em>Precisión de la predicción</em>: Esto provee la relación verdadera entre la respuesta y los predictores es aproximadamente lineal, donde los estimados de mínimos cuadrados tendrían un bajo sesgo. Cuando el número de observaciones <em>n</em> es mayor al número de variables <em>p</em>, entonces los estimados de mínimos cuadrados van a tender a tener baja varianza, lo cual causa que este sea efectivo en observaciones de prueba. Mientras que cuando <em>n</em> no es mucho más grande que <em>p</em>, entonces hay una alta variablilldad en el ajuste de los mínimos cuadrados, lo cual resulta en una sobreestimación y baja predictabilidad en observaciones futuras que no fueron utilizadas en el modelo. Cuando el número de predictores es mayor que el número de observaciones, no hay un solo estimado del coeficiente de mínimos cuadrados, es decir, la varianza es infinita, lo cual no permite que se puede usar este método. Por medio de <em>restringir</em> o <em>contraer</em> los coeficientes estimados podemos reducir la varianza a costo de aumentar el sesgo. Esto puede dar como resultados el mejorar al precisión, lo cual permite predecir la respoestado de observaciones que no fueron usadas en el modelo de entrenamiento.</p></li>
<li><p><em>Interpretabilidad del modelo</em>:</p></li>
<li><p><em>Interpretabilidad del modelo</em>: Esto se refiere a eliminar variables <em>innecesarias</em> que solo le agregan complejidad al modelo -por medio de ajustar los coeficientes de los estimados a cero. De esta manera, el modelo se vuelvo muchos mas interpretable. No obstante, hay que tener en cuenta que en los mínimos cuadrados es poco pobable obtener estimados de coeficientes que den exactamente cero.</p></li>
</ul>
<p>Hay diferentes alternativas para ajustar el uso de los mínimos cuadrados.</p>
<ul>
<li><p><em>selección de subconjunto</em>: Este procedimiento trata de identificar un subconjunto de <em>p</em> predictores que se cree que están relacionados con la respuesta, para luego ajustar el modelo usado en los mínimos caudrados para reducir el conjunto de variables.</p></li>
<li><p><em>Contracción</em>: Este procedimiento requiere ajustar un modelo con todos <em>p</em> predictores.</p></li>
<li><p><em>Reducción dimensiones</em>:</p></li>
</ul>
<div id="selección-de-subconjuntos" class="section level2 hasAnchor" number="6.1">
<h2><span class="header-section-number">6.1</span> Selección de subconjuntos<a href="selección-de-modelos-lineares-y-regularización.html#selección-de-subconjuntos" class="anchor-section" aria-label="Anchor link to header"></a></h2>
Expand Down

0 comments on commit 1b493f0

Please sign in to comment.