Drazí, dumal jsem nad tím, jak by měl být didakticky uspořádán náš text a myslím si následující: * vysvětlit, co je to strojové učení * perceptron (didakticky bych je dal jako první, pro pokročilé bych nechal důkaz) * úvod do statistiky a pravděpodobnosti k tomu malý úvod do teorie informace * jako součást té statistiky tak trochu dojít k logistické regresi * jako k vyústění podmíněné pravděpodobosti dojít k naive baysovi jako vyústění podmíněné pravděpodobnosti * vysvětlit rozdíl mezi diskriminativním a generativním modelem (zpětně rozhodnot, proč je perceptron diskriminativní) ... moc hezký článek o tom měl Ng a používá tam taky jenom NB a LR * intermezzo: přeučení, je potřeba normalizovat featury * geometrická intuice (oddělení regionu špatných a dobrých bodů) ... dovede nás k SVM (zatím jenom lineární) problém, v geometrické intuici se hodí large margin najednou * data nejsou lineárně separovatelná - triviální a intuitivní řešení rozhodovací stromy řešení pro velké kluky a holky: kernel v SVM řešení nové doby - neuronové sítě Ještě bych zařadil: testování hypotéz (to je taky svého druhu strojové učení) Co bych nechal do druhého dílu: regrese, strukturní predikce (structured perceptron, structured SVM, CRF, neural CRF, SEARN/DAgger), clustering S úctou J. ------------------------------------------------------------------------------- Tomáš: * předmluva - o matematických a jiných pojmech (jak se liší třeba „pravděpodobnost“ v matematice a běžné mluvě) - strojové učení ~ modelování vztahů v datech * lineární regrese * perceptron * evaluace - precision a recall - crossvalidation * logistická regrese * SVM * rozhodovací stromy, naivní Bayes, grafické modely * clusterování: k-means, obecný EM algoritmus (srovnání s koevolucí) * one vs. all * unsupervised learning, reinforced learning * neuronky Osnova pana Ng (https://www.coursera.org/learn/machine-learning): * Introduction * Linear Regression with One Variable - Model Representation - Cost Function - Gradient Descent * Linear Regression with Multiple Variables * Logistic Regression - Classification - Hypothesis Representation - Decision Boundary * Regularization * Neural Networks: Representation * Neural Networks: Learning * Advice for Applying Machine Learning - Evaluating a Hypothesis - Model Selection and Train/Validation/Test Sets - Diagnosing Bias vs. Variance - Regularisation and Bias/Variance - Learning Curves * Machine Learning System Design * Support Vector Machines * Unsupervised Learning * Dimensionality Reduction * Anomaly Detection * Recommender Systems * Large Scale Machine Learning * Application Example: Photo OCR ------------------------------------------------------------------------------- Jindřich: samozřejmě ještě evaluace ... precision a recall do strukturní predikce je potřeba zahrnout ještě HMM (a pečlivější zopakování generativní a diskriminativní na příkladu CRF a HMM)