Dobývání znalostí - shrnutí na zkoušku
Tato stránka se snaží o shrnutí základních pojmů probraných na přednáškách. Nenahrazuje slajdy a je maximálně povrchní, je určena k usnadnění si opakování po alespoň jednom kompletním průchodu slajdy. (Pokud ale kolem toho někdo chce začít stavět skriptíčka, do toho!).
Studenti předmětu nejsou o průběhu zkoušek příliš sdílní, takže velikost průniku toho zde uvedeného a zkoušené látky není definována.
Základy pravděpodobnosti
Pravděpodobnost - principy, Bayesův vzorec, rozptyl, binomické a normální rozdělení, intervaly spolehlivosti
Testování hypotéz, chyba hypotézy, srovnávání hypotéz (rozdíly chyb)
k-násobná křížová validace
Úvod
Motivace, základní postupy, prerekvizity
Metodiky
5A (Assess, Access, Analyze, Act, Automate)
SEMMA (Sample, Explore, Modify, Model, Assess)
CRISP-DM (taková neurčitá)
Databáze
Selekce, projekce, spojení
QBE/SQL, manažerské: EIS, OBL, OLAP
OLAP: Datová krychle - pěkná agregace podle různých dimenzí; roll-up, drill-down
OLAP: Storage
MOLAP - řídká hyperkrychle nebo hustá multikrychle
ROLAP - do relační databáze; snowflake (co dimenze, to tabulka s kompletními daty), star (centrální tabulka faktů, tabulky dimenzí jen schéma levelů k agregaci)
Datový sklad, datové tržiště - třívrstvá sumarizace
Dotazování: asociační (IF-THEN) pravidla, support, confidence
Rozhodovací stromy
Vstup: Vektory příznaků; Výstup: Třídy klasifikace
Vnitřní uzel se větví podle hodnoty svého atributu (s atributy rodičů již zafixovanými)
TDIDT indukce:
Algoritmus - vytvoř kořen, pak pro každý uzel
zvol dělící atribut
je-li co dělit, vyrob syny a rekurze
není-li co dělit, vytvoř list a ohodnoť třídou
Entropie: <math>H = -\sum_i p_i\log p_i</math> (<math>p_i</math> relativní četnost třídy i, pro 0 doplníme výsledek limitou = 0)
Entropie jedné hodnoty jednoho atributu; entropie atributu vážený součet přes hodnoty
Dělíme podle atributu s nejnižší entropií (nejvýraznější rozparcelování tříd)
ID3 indukce: Jako TDIDT, ale pracuje na výstupu místo třídy jen s bool hodnotami.
rozumně algoritmus: http://en.wikipedia.org/wiki/ID3_algorithm
C4.5 indukce: chybějící data, spojitá data, pruning, roubování, rule post-pruning, dolní odhad správnosti, při dělení minimalizace gain ratio
C5.0: boosting - hlasování několika paralelních klasifikátorů
CART: binární strom; prostor hodnot atributu rozpivotován dělící hodnotou
Minimalizace přes pivoty: <math>2P_LP_R \sum_i |P(C_i|t_L) - P(C_i|T_R)|</math>
SPRINT: Divné?!
Závislosti v datech
Kontingenční tabulka - pro dva atributy matice, pro každou kombinaci hodnot četnost, marginály se sumamy přes řádky/sloupce
<math>\chi^2</math>-test - jsou atributy nezávislé? stupně volnosti (skoro počet kombinací), hladina významnosti (pravděpodobnost závěru)
<math>e_{ij} = r_is_j / n</math> (očekávaná četnost v případě nezávislosti)
<math>\chi^2 = \sum_i \sum_j {(a_{ij} - e_{ij})^2\over e_{ij}}</math>
Laicky: Měříme, jak daleko je očekávaná a reálná četnost, vážíme očekávanou četností
Je-li <math>\chi^2</math> hodnota větší než "tabulková" hodnota <math>\chi^2</math>-distribuce, atributy jsou závislé
počet stupňů volnosti = (počet řádků - 1) * (počet sloupců - 1)
idea: pokud chci změnit kontingenční tabulku, ale chci zachovat řádkové a sloupcové součty, po změně počet-stupňů-volnosti polí jsou zbývající hodnoty jednoznačně určené
Fisherův test - máme málo dat a jen dva booleovské atributy (= čtyřpolní kontingenčí tabulka)
Přesná pravděpodobnost rozložení četností <math>p = \left({a_{11} + a_{12}} \choose {a_{11}}\right) \left({a_{21} + a_{22}} \choose {a_{22}}\right) / \left({n} \choose {a_{11} + a_{21}}\right)</math>(http://artax.karlin.mff.cuni.cz/upload/index.php?action=view&filename=CodeCogsEqn-1.gif&directory=predmety/NDBI023& obrázek)
Jiný vzorec pro Fisherův test: <math>p = (r_1! * r_2! * s_1! * s_2!) / (n! * a_11! * a_12! * a_21! * a_22!)</math>
r/s jsou řádkové/sloupcové součty, n je celkový součet
Sesumuji p přes všechna možná rozložení při zafixovaných marginálech, výsledek je pravděpodobnost, že jsou atributy závislé
kanonický postup: protočím tabulku, aby nejnižší hodnota byla vlevo nahoře, postupně ji dekrementuju až do nuly a pro každou hodnotu upravím ostatní hodnoty (tak aby se nezměnily marginály) a spočtu p_i, ta pak sečtu a mám pst
Regresní analýza
Lineární regrese - chci jeden atribut vyjádřit lineární rovnicí podle druhého; minimalizace MSE (derivace)
Míra lineární závislosti (Pearson's r): <math>Q(x,y) = {cov(x,y) \over \sigma_x \sigma_y}</math>
Vícerozměrná, mnohorozměrná regrese
Logistická regrese
Diskriminační analýza - vpodstatě zkoušíme vyrobit perceptron, měříme chybu
Shluková analýza
K-means
http://is.muni.cz/th/172767/fi_b/5739129/web/web/kmeans.html
http://cmp.felk.cvut.cz/cmp/courses/recognition/Lab_archive/RPZ_02-03l/kmeans/index.html
http://en.wikipedia.org/wiki/K-means_algorithm
kNN
http://www.youtube.com/watch?v=4ObVzTuFivY
LVQ
http://ccy.dd.ncu.edu.tw/~chen/course/neural/ch4/index.htm
Výběr příznaků
Karhunen-Loevevův rozvoj - něco jako neperiodický Fourier, vliv prvků rozvoje se s indexem monotonně snižuje
PCA - vpodstatě metoda, jak ho získat. Spoustu různých způsobů:
Klasicky:
Vycentrovat data <math>\mu_{i} = {1 \over n}\sum_j x_{ij}</math>
Disperzní matice <math>w_{ij} = {1 \over n}\sum_k (x_{ki} - \mu_{i})(x_{kj} - \mu_j)</math>
Najdeme charakteristické vektory disperzní matice
Oja: hledáme hlavní dimenzi <math>\vec w</math>
Náhodná inicializace, <math>\gamma</math> parametr učení
Vytáhneme z X náhodný vektor, <math>y = \vec x \vec w</math>
Zupdatujeme váhu <math>\vec w = \vec w + \gamma y (\vec x - y \vec w)</math>
Vychází z Hebbovského učení, ale na rozdíl od něj konverguje - vlastně vezme Hebbovské pravidlo, to znormalizuje a normalizaci promítne zpět do původního vzorečku skrz Taylorův rozvoj; více viz wikipedie
Perceptrony
Lineární separabilita, absolutní lineární separabilita
Perceptronový algoritmus učení - hledáme dělící nadrovinu a na ní kolmý váhový vektor <math>\vec w</math>
Chybně klasifikovaný vektor uvnitř (ve směru váhového vektoru) odčítáme (otáčíme <math>\vec w</math> od něj)
Chybně klasifikovaný vektor vně přičítáme (otáčíme <math>\vec w</math> k němu)
Konvergence učení - řada předpokladů, počkáme si na událost <math>\vec w_{t+1} = \vec w_{t} + \vec p</math>
Jak otočeni jsme k hledanému váhovému vektoru? <math>\cos \rho = {\vec w^* \vec w_{t+1} \over ||\vec w_{t+1}||}</math>
V čitateli i jmenovateli zvlášť rozvineme <math>\vec w_{t+1}</math> a vyrobíme nerovnosti, dostaneme <math>\cos \rho \ge {\vec w^* \vec w_0 + (t+1)\delta \over \sqrt{||\vec w_0||^2 + (t+1)}}</math>
Ale protože hodnota cos je omezená, musí být počet aktualizací (t) omezený.
Přihrádkový (ratchet) algoritmus - vždy si pamatuji váhový vektor, který zatím prošel nejvíce úspěšnými klasifikacemi za sebou, až zastavím učení, vydám ten
Back-propagation
Vícevrstvá neuronová síť, potřebuji propagovat updaty váhových vektorů
Výstup neuronu buď <math>y = f(\xi = \sum_i w_ix_i)</math>
Minimalizuji na trénovací množině odchylku přes výstupní neurony <math>E = 1/2 \sum_p \sum_j (y_{jp} - d_{jp})^2</math>
Váhový update: <math>w_{ij}(t+1) = w_{ij}(t) + \Delta_E w_{ij}(t)</math>
Výstupní neuron: <math>\Delta_E w_{ij} = -{\partial E \over \partial w_{ij}} = -{\partial E \over \partial \xi_j}{\partial \xi_j \over \partial w_{ij}} = -{\partial E \over \partial \xi_j} y_i = -{\partial E \over \partial y_j}{\partial y_j \over \partial \xi_j} y_i = -(y_j-d_j)f'(\xi_j) y_i = \delta_j y_i</math>
Vnitřní neuron: <math>\Delta_E w_{ij} = -{\partial E \over \partial y_j}{\partial y_j \over \partial \xi_j} y_i = -(\sum_k {\partial E \over \partial \xi_k}{\partial \xi_k \over \partial y_j}) {\partial y_j \over \partial \xi_j} y_i = -(\sum_k {\partial E \over \partial \psi_k} w_{jk}) {\partial y_j \over \partial \xi_j} y_i = -(\sum_k \delta_k w_{jk}) f'(\xi_j) y_i = \delta_j y_i</math>
Hopfieldovy sítě
Sada binárních neuronů, propojené každý s každým; iterativně se neurony updatují, umí vyhlazovat zašuměný vstup (stabilní body dyn. systému), nízká kapacita
Hebbovské učení: <math>w_{ij} = \sum_p x_i^p x_j^p</math> (what fires together, wires together)
Konvergence při vybavení - energetická funkce neustále klesá
Kohonenovy mapy
Kompetice neuronů o vzorek, vítěz inhibuje ostatní
Neurony topologicky rozprostřeny, soutěží o váhový vektor nejbližší vstupu
c buď vítěz, pak <math>\Delta w_{ij} = \alpha(t) \Rho(c,j)(x_i(t) - w_{ij})</math>
Vektorová kvantizace LVQ1 - podivnost?!
Genetické algoritmy
Selekce, křížení, mutace, elitismus, ...
Schema - abstraktní "šablona" genomu, na každé pozici wildcard nebo zafixovaná hodnota (teď nebudeme uvažovat nějaká konkrétní, ale prostě množinu všech možných)
Věta o schematech - v populaci roste počet schémat, která jsou krátká, mají malý počet pevných pozic a mají vysoké průměrné ohodnocení
Idea důkazu: Díváme se postupně pro všechny genetické operátory, na čem závisí očekávaná četnost schématu v další populaci - ukazuje se, že právě na délce atd.
Předzpracování dat
Databázové relace atd.; redukce dat/atributů transformací, selekcí
Metoda filtru - pro každý atribut charakteristika vhodnosti (<math>\chi^2</math>, entropie, ...)
Metoda obálky - vygenerujeme model z podmnožiny atributů a vybereme nejlepší model přes všechny podmnožiny
Postup zdola nahoru (odstraňujeme atributy) vs. shora dolů (přidáváme)
Ale co kombinace atributů? Blbé...
Diskretizace numerických atributů
Lee-Shin: (bottom-up) Začneme od zvlášť intervalu pro každou hodnotu, ty iterativně slučujeme, dokud nemáme dost málo intervalů
V každé iteraci sloučíme intervaly s minimálním rozdílem množství informace
<math>E(\nu) = \sqrt{ \sum_t (\sqrt{P(t|<\nu)} + \sqrt{P(t|\ge\nu)})^2 }</math>
Fayad-Irani: (top-bottom) Rekurzivně dělí aktuální interval, uvažuje kandidáty na dělící body
Dělíme podle dělících bodů s dostatečným informačním ziskem - velkým zvýšením entropie po rozdělení
V rámci intervalu: <math>H(\nu) = {n(<\nu) \over n} H(< \nu) + {n(\ge \nu) \over n} H(\ge \nu)</math>
Práh zisku je nepochopitelný vzoreček
KEX: Ohodnoť hodnoty třídami, pak vyrob intervaly
Každou hodnotu ohodnoť třídou - přímo, je-li jen jedna třída; nejčetnější třídou, když <math>\chi^2</math>-test řekne, že se rozdělení tříd liší od apriorního; otazníkem jinak
Vytvoříme intervaly ze spojitých bloků tříd; otazníkové třídy v sousedstvích konkrétních napojíme na sousedy vybrané podle <math>\chi^2</math>-testu
Fuzzy diskretizace: Vyrobíme fuzzy-intervaly; každý má na sobě definovanou char. funkci
Charakteristická funkce uvnitř intervalu 1, je-li soused otazník, po celé jeho délce lineárně klesá k nule
Kategoriální atributy - KEX, vpodstatě to samé, jen ne nutně spojité intervaly?
MBA, SF-sítě
Množina produktů v transakci, které se spolu vyskytují nejčastěji? Virtuální položky pro "metadata".
Tabulka četností a if-then pravidla; podpora, spolehlivost, zlepšení <math>p(ij) \over p(i)p(j)</math>
Prořezávání, zobecňování (značky, výrobci), disociační pravidla (NOT; pochybná užitečnost), časové řady (rozšíření do okénka)
Scale-free sítě: Sítě, kde některé uzly mají mnohem více hran (huby) než ostatní
http://cs.wikipedia.org/wiki/Bez%C5%A1k%C3%A1lov%C3%A1_s%C3%AD%C5%A5
APRIORI
Generování asociačních pravidel - frequent itemsets
Generování kombinací do šířky - kombinace délky k z kombinací délky k-1
Každou kombinaci délky k-1 porovnáme s každou jinou, shodují-li se v k-2 itemech, spojíme
Spojené zpětně profiltrujeme, chybí-li nám nějaká jejich podkombinace délky k-1, zahodíme je
Bayes
Naivní Bayesovský klasifikátor; mám jev a klasifikaci, při tréninku počítám četnosti a <math>P(jev | klasifikace)</math>
Při použití podle Bayesova pravidla počítám <math>P(klasifikace | jev)</math>
Naivní, protože předpokládám, že jevy jsou nezávislé; v praxi obvykle nejsou, přesto funguje překvapivě dobře
Bayesovské sítě - DAGy, uzel na výstupu dává pravděpodobnost generovanou statickým rozdělením přes vstupní pravděpodobnosti rodičů
Inference - kauzální (top-bottom), diagnostická (bottom-up)
Učení - různé varianty
Známe-li strukturu a vše vidíme - maximálně věrohodný odhad, vlastně naivní bayes
Známe-li strukturu, něco nevidíme nebo šum - gradientní metodou maximalizujeme pravděpodobnost, že vidíme, co vidíme; EM: podle parametrů distribuce spočítej hodnotu veličin, z nich urči max. věrohodný odhad parametrů, iteruj až k pevnému bodu; Kalmanovy filtry, atd.
Neznáme-li strukturu - průšvih