this dir | view | cards | source | edit | dark top

Úvod do strojového učení v Pythonu

Úvod do strojového učení v Pythonu

Piazza

bodování

definice strojového učení

základní úlohy

notace

vstupní data

Lineární regrese

lineární regrese

Lineární regrese

overfitting, underfitting

Lineární regrese

volba hyperparametrů

Lineární regrese

gradient descent

Lineární regrese

feature types

Lineární regrese

features je potřeba normalizovat, abychom mohli pro všechny používat stejný learning rate

Binární klasifikace

nejjednodušší metrika je úspěšnost (accuracy)

poměr správně klasifikovaných dat

Binární klasifikace

budeme hledat nadrovinu, která nám oddělí jednu třídu od druhé

Binární klasifikace

problémy perceptronu

Binární klasifikace

teorie informace

Binární klasifikace

odhad maximální věrohodnosti

L(w)=pmodel(X;w)=i=1Npmodel(xi;w)L(w)=p_\text{model}(X;w)=\prod_{i=1}^Np_\text{model}(x_i;w)

Binární klasifikace

multiclass logistic regression

Binární klasifikace

multilayer perceptron

Binární klasifikace

regularizace pomocí dropoutu

Binární klasifikace

věta o univerzální aproximaci

Binární klasifikace

Lagrangeovy multiplikátory

Binární klasifikace

F-skóre

Reprezentace textu

jak reprezentovat dokument

Metoda nejbližších sousedů

máme hyperparametry

Metoda nejbližších sousedů

nemusí být jednoduché sousedy najít

používají se stromové datové struktury

Metoda nejbližších sousedů

typičtější aplikace

Bayesovská pravděpodobnost

prior probability → posterior probability

na základě nových dat

Bayesovská pravděpodobnost

MAP odhad

u normálního rozdělení vlastně minimalizujeme L2 regularizovaný NLL

Bayesovská pravděpodobnost

konjugované distribuce (conjugate distribution)

prior a posterior mají stejný „typ distribuce“

Bayesovská pravděpodobnost

jak zvolit priors?

Korelace

kovariance

Korelace

Pearsonův kolerační koeficient

„jsou data lineárně závislá?“

Korelace

Spearmanův koeficient pořadové korelace

„je zachováno pořadí?“

Korelace

Kendallův koeficient pořadové korelace τ\tau

„poměr souhlasných párů“

Korelace

„jak často se stane, že mezi 5 nejlepšími jsou ty, které chceme?“

precision pro fixních top 5

Korelace

shoda anotátorů

Cohenovo κ\kappa

Korelace

výkon ML klasifikátoru

Ensembling

yi(x)=t+εi(x)y_i(x)=t+\varepsilon_i(x)

Ensembling

bagging – bootstrap aggregation

Ensembling

knowledge distillation / model compression

SVD, PCA, K-Means

možné použití

SVD, PCA, K-Means

k-means

SVD, PCA, K-Means

může se hodit clustery modelovat jako gaussiány

zvlášť pokud nemají stejnou velikost a jsou třeba elipsy

Etika

hlavní teoretické rámce

Etika

deontologická etika

Etika

utilitariánská etika

Etika

příklady, jak dělat etické systémy

Etika

problémy v různých fázích vývoje modelu strojového učení

Co jsme se naučili

základy teorie informace

preferujeme modely s větší entropií – nechceme do nich vnášet dodatečné předpoklady

Hurá, máš hotovo! 🎉
Pokud ti moje kartičky pomohly, můžeš mi koupit pivo.