diff --git a/README.md b/README.md index e4894a9..3dc570f 100644 --- a/README.md +++ b/README.md @@ -1,4 +1,4 @@ -Mašininio ir giliojo mokymo sąvokų žodynas +Mašininio ir giliojo mokymosi sąvokų žodynas Jei turima neaiški sąvoka, kviečiu užpildyti Issue, jei turite pasiūlymų/pildymų kviečiu pateikti PR. @@ -71,10 +71,10 @@ Arba kreiptis el.paštu: linas.petkevicius@mif.vu.lt | Estimator | Įvertinys | Statistika (funkcija) parametrams ivertinti. | | Expectation-maximization (EM) | Vidurkio maksimizavimo metodas | | | Expectation-maximization for segmentation | Vidurkio maksimizavimo metodas segmentavimui | | -| Exponential linear unit (ELU) | Eksponentinis tiesinis vienetas | \[ELU_a(x) = \begin{cases} 1, & x > 0\\ a \cdot (\exp(x) - 1), & x \leq 0 \end{cases},\quad \], čia a yra konstanta. | +| Exponential linear unit (ELU) | Eksponentinis tiesinis vienetas | $$ELU_a(x) = \begin{cases} 1, & x > 0\\ a \cdot (\exp(x) - 1), & x \leq 0 \end{cases},\quad $$, čia a yra konstanta. | | Exposure | Atvirumas | | | Exploration algorithms | Tyrinėjantis algoritmas | | -| Exploding gradient problem | Sprogstančių gradientų problema | Vertinant nežinomus parametrus gradientiniais metodais, kai turime sudėtingą modelį taikome diferenciavimo taisyklę \[ \begin{eqnarray*} \frac{\partial \mathcal{L}}{\partial heta_{k}^1} = \frac{\partial \mathcal{L}}{\partial \theta_{z}^L} \frac{\partial \theta_{z}^L}{\partial \theta_{z}^{L-1}} \cdot \cdot \cdot \frac{\partial \theta_{z}^{1}}{\partial \theta_{k}^1} \end{eqnarray*}\], tačiau jei narių skaičius didelis, ir apskaičiuotos dalinių išvestinių reikšmės didelės, galutinė reikšmė greitai sprogsta. Tai ir vadinama sprogstančių gradientų problema. | +| Exploding gradient problem | Sprogstančių gradientų problema | Vertinant nežinomus parametrus gradientiniais metodais, kai turime sudėtingą modelį taikome diferenciavimo taisyklę $$ \begin{eqnarray*} \frac{\partial \mathcal{L}}{\partial heta_{k}^1} = \frac{\partial \mathcal{L}}{\partial \theta_{z}^L} \frac{\partial \theta_{z}^L}{\partial \theta_{z}^{L-1}} \cdot \cdot \cdot \frac{\partial \theta_{z}^{1}}{\partial \theta_{k}^1} \end{eqnarray*}$$, tačiau jei narių skaičius didelis, ir apskaičiuotos dalinių išvestinių reikšmės didelės, galutinė reikšmė greitai sprogsta. Tai ir vadinama sprogstančių gradientų problema. | | Exploitation algorithms | Eksplotuojantis algoritmas | Alternatyva: dabartinėmis žiniomis besiriamentis algoritmas. Pavyzdys: While in explotaition we pay reward on identity new actions, the explotation concentrates on making efficient decition now. Jei tyrinėjantis algoritmas suteikia atlygį naujiems (prieštai nebandytiems) sprendimams (veiksmams), tai dabartinėmis žiniomis besiriamentis algoritmas maksimizuoja trumpalaikį atlygį iš dabartinės situacijos.| @@ -113,7 +113,7 @@ Jei tyrinėjantis algoritmas suteikia atlygį naujiems (prieštai nebandytiems) | Gradient Descent | Gradientinis nusileidimas | | | Gray Level Co-occurrence Matrix (GLCM) | Juodai baltų spalvos lygių atsikartojimų matrica | | | Gated recurrent unit (GRU) model | Sklendžių rekurentinių vienetų modelis | | -| Gaussian error linear unit (GELU) | Gausinis tiesinis vienetas | \[GELU(x) = x \Phi(x)\] čia \[ \Phi(x) \] normalaus a.d. pasiskirstymo f-ja. | +| Gaussian error linear unit (GELU) | Gausinis tiesinis vienetas | $$GELU(x) = x \Phi(x)$$ čia $$ \Phi(x) $$ normalaus a.d. pasiskirstymo f-ja. | | Gate | Sklendė | Rekurentiniuose neuroniniuose tinkluose signalio kelias yra įgalinamas arba išjungiamas praveriant arba uždarant sklendę. | | Hidden layers | Paslėpti sluoksniai | | | Histogram of oriented gradients (HOG) | Kryptinių gradientų histograma | | @@ -121,7 +121,7 @@ Jei tyrinėjantis algoritmas suteikia atlygį naujiems (prieštai nebandytiems) | Kernel | Filtro branduolys | Kernel mašininio mokymo kontekste verčiamas, kaip branduolys. Konvoliucinių tinklų kontekste - filtro branduolys. | | Label | Žymuo | | | Learning rate | Mokymo žingsnis | | -| Leaky ReLU | Pralaidus dalimis tiesinis vienetas | \[Leaky ReLU(x) = \begin{cases} 1, & x > 0\\ -a x, & x \leq 0 \end{cases},\quad \], čia a yra konstanta. | +| Leaky ReLU | Pralaidus dalimis tiesinis vienetas | $$Leaky ReLU(x) = \begin{cases} 1, & x > 0\\ -a x, & x \leq 0 \end{cases},\quad $$, čia a yra konstanta. | | L2 norm pooling | Sutelkimo imant L2 normą sluoksnis | | | Local receptive fields | Lokali matymo sritis | Taikant konvoliucinius neuroninius tinklus įeities matricai taikome konvoliucijos operaciją. Sritis, kurią apima duotas branduolys, ir yra ta lokali matymo sritis. | | Loss | Nuostoliai | | @@ -165,7 +165,7 @@ Jei tyrinėjantis algoritmas suteikia atlygį naujiems (prieštai nebandytiems) | Probably approximately correct (PAC) learning | Apytikslis mokymasis pagal tikimybę | In PAC learning the learner receives samples and must select a generalization function (called the hypothesis) from a certain class of possible functions. Apytikslis mokymasis pagal tikimybę gautai duomenų imčiai turi parinkti geriausiai begeneralizuojančią funkciją iš tam tikros funkcijų klasės.| | Pattern | Šablonas | | | Part affinity fields (PAR) | Sričių afininiai laukai | | -| Parametric ReLU | Parametrizuotas dalimis tiesinis vienetas | \[ParametricReLU_a(x) = \begin{cases} 1, & x > 0\\ -a x, & x \leq 0 \end{cases},\quad \], čia a yra vertinamas parametras. | +| Parametric ReLU | Parametrizuotas dalimis tiesinis vienetas | $$ParametricReLU_a(x) = \begin{cases} 1, & x > 0\\ -a x, & x \leq 0 \end{cases},\quad $$, čia a yra vertinamas parametras. | | Pattern | Šablonas | | | Peak signal to noise ratio | Maksimalaus signalo ir triukšmo santykis | | | Pixel intensity | Pikselio intensyvumas | | @@ -189,7 +189,7 @@ Jei tyrinėjantis algoritmas suteikia atlygį naujiems (prieštai nebandytiems) | Real-time | Realaus laiko/realiu laiku | | | Relative position normalization | Realiatyvios pozicijos normalizavimas | | | Recall | Atkūrimo statistika | Alternatyva jautrumas. Skaičiuojama taip pat kaip jautrumo statistika. | -| Rectified Linear Unit (ReLu) | Dalimis tiesinis vienetas | \[relu(x) = max(0, x)\]| +| Rectified Linear Unit (ReLu) | Dalimis tiesinis vienetas | $$relu(x) = max(0, x)$$| | Recurrent neural networks (RNN) | Rekurentiniai neuroniniai tinklai | | | Reinforcement learning | Skatinamasis mokymas | | | Region proposal network | Sričių pasiūlymo tinklas | | @@ -202,8 +202,8 @@ Jei tyrinėjantis algoritmas suteikia atlygį naujiems (prieštai nebandytiems) | Saturates | Spalvų sodrumas | | | Shared weights | Bendri parametrai | Pavyzdžiui Siamo neuroniniai tinklai naudoja bendrus sluoksnius skritinguose, modeliuose. | | Score | Statistikos vertė | | -| Scaled exponential linear unit (SeLu) | - | \[selu(x) = \lambda \begin{cases} 1, & x > 0\\ \alpha e^{x}, & x \leq 0 \end{cases},\quad \lambda=1.0507,\alpha=1.6733. \] | -| Sigmoid-weighted linear unit (SiLU) | Pasvertas sigmoidinis tiesinis vienetas | \[\sigma(x) = \frac{x}{1 + e^{-x}} = x \sigma(x)\]. žr. Švituojanti aktivacijos funkcija | +| Scaled exponential linear unit (SeLu) | - | $$selu(x) = \lambda \begin{cases} 1, & x > 0\\ \alpha e^{x}, & x \leq 0 \end{cases},\quad \lambda=1.0507,\alpha=1.6733. $$ | +| Sigmoid-weighted linear unit (SiLU) | Pasvertas sigmoidinis tiesinis vienetas | $$\sigma(x) = \frac{x}{1 + e^{-x}} = x \sigma(x)$$. žr. Švituojanti aktivacijos funkcija | | Semantic segmentation | Semantinis segmentavimas | | | Segmentation | Segmentavimas | | | Segmentation color-based | Segmentacija grįsta spalvų lyginimu | | @@ -218,7 +218,7 @@ Jei tyrinėjantis algoritmas suteikia atlygį naujiems (prieštai nebandytiems) | Self-occlusion | Uždengimas savimi | Left ear was not visible due turned face. Kairės ausies nebuvo galima matyti dėl pasukto veido. | | Self-supervised progressive ranking loss | Adaptyvi rankingo nuostolių funkcija | | | Salient points | Svarbiausi taškai | | -| Sigmoid | Sigmoidas | \[\sigma(x) = \frac{1}{1 + e^{-x}} \], | +| Sigmoid | Sigmoidas | $$\sigma(x) = \frac{1}{1 + e^{-x}} $$, | | Skip connections | Praleidimo jungtys | | | Skeleton-based system | Kūno pozos taškais grįsta sistema | | | Skeleton edge motion | Kūno pozos taškų judėjimas | | @@ -240,7 +240,7 @@ Jei tyrinėjantis algoritmas suteikia atlygį naujiems (prieštai nebandytiems) | Sub-level structural similarity index | Struktūrinis subintensivumų panašumas | | | Sum pooling layer | Telkimo sumuojant sluoksnis | | | Supervised learning | Prižiūrimas mokymas | | -| Swish activation function | Švituojanti aktivacijos funkcija | \[\sigma(x) = \frac{x}{1 + e^{-x}} = x \sigma(x)\] žr. Pasvertas sigmoidinis tiesinis vienetas | +| Swish activation function | Švituojanti aktivacijos funkcija | $$\sigma(x) = \frac{x}{1 + e^{-x}} = x \sigma(x)$$ žr. Pasvertas sigmoidinis tiesinis vienetas | | Threshold | Slenkstinė vertė | | | Template | Šablonas | | | Temporal Difference algorithm | Laikinųjų-skirtumų algoritmas | | @@ -255,7 +255,7 @@ Jei tyrinėjantis algoritmas suteikia atlygį naujiems (prieštai nebandytiems) | Trial-and-error search | Paieška bandymų-klaidų būdu | | | Unpooling | Atspaudimas | | | Validation data | Validavimo duomenys | | -| Vanishing gradient problem | Nykstančių gradientų problema | Vertinant nežinomus parametrus gradientiniais metodais, kai turime sudėtingą modelį taikome diferenciavimo taisyklę \[ \begin{eqnarray*} \frac{\partial \mathcal{L}}{\partial \theta_{k}^1} = \frac{\partial \mathcal{L}}{\partial \theta_{z}^L} \frac{\partial \theta_{z}^L}{\partial \theta_{z}^{L-1}} \cdot \cdot \cdot \frac{\partial \theta_{z}^{1}}{\partial \theta_{k}^1} \end{eqnarray*}\], tačiau jei narių skaičius didelis, ir apskaičiuotos dalinių išvestinių reikšmės mažos, galutinė reikšmė greitai nyksta. Tai ir vadinama nykstančių gradientų problema. | +| Vanishing gradient problem | Nykstančių gradientų problema | Vertinant nežinomus parametrus gradientiniais metodais, kai turime sudėtingą modelį taikome diferenciavimo taisyklę $$ \begin{eqnarray*} \frac{\partial \mathcal{L}}{\partial \theta_{k}^1} = \frac{\partial \mathcal{L}}{\partial \theta_{z}^L} \frac{\partial \theta_{z}^L}{\partial \theta_{z}^{L-1}} \cdot \cdot \cdot \frac{\partial \theta_{z}^{1}}{\partial \theta_{k}^1} \end{eqnarray*}$$, tačiau jei narių skaičius didelis, ir apskaičiuotos dalinių išvestinių reikšmės mažos, galutinė reikšmė greitai nyksta. Tai ir vadinama nykstančių gradientų problema. | | Value function | Vertės funkcija | | | Variational Auto-Encoder | Variacinis auto-enkoderis | | | Undirected | Neorentuotas | |