Piazza
bodování
definice strojového učení
základní úlohy
notace
vstupní data
lineární regrese
overfitting, underfitting
volba hyperparametrů
gradient descent
feature types
features je potřeba normalizovat, abychom mohli pro všechny používat stejný learning rate
nejjednodušší metrika je úspěšnost (accuracy)
poměr správně klasifikovaných dat
budeme hledat nadrovinu, která nám oddělí jednu třídu od druhé
problémy perceptronu
teorie informace
odhad maximální věrohodnosti
multiclass logistic regression
multilayer perceptron
numpy.logsumexp
regularizace pomocí dropoutu
věta o univerzální aproximaci
Lagrangeovy multiplikátory
F-skóre
jak reprezentovat dokument
máme hyperparametry
nemusí být jednoduché sousedy najít
používají se stromové datové struktury
typičtější aplikace
prior probability → posterior probability
na základě nových dat
MAP odhad
u normálního rozdělení vlastně minimalizujeme L2 regularizovaný NLL
konjugované distribuce (conjugate distribution)
prior a posterior mají stejný „typ distribuce“
jak zvolit priors?
kovariance
Pearsonův kolerační koeficient
„jsou data lineárně závislá?“
Spearmanův koeficient pořadové korelace
„je zachováno pořadí?“
Kendallův koeficient pořadové korelace
„poměr souhlasných párů“
„jak často se stane, že mezi 5 nejlepšími jsou ty, které chceme?“
precision pro fixních top 5
shoda anotátorů
Cohenovo
výkon ML klasifikátoru
bagging – bootstrap aggregation
knowledge distillation / model compression
možné použití
k-means
může se hodit clustery modelovat jako gaussiány
zvlášť pokud nemají stejnou velikost a jsou třeba elipsy
hlavní teoretické rámce
deontologická etika
utilitariánská etika
příklady, jak dělat etické systémy
problémy v různých fázích vývoje modelu strojového učení
základy teorie informace
preferujeme modely s větší entropií – nechceme do nich vnášet dodatečné předpoklady