Chcete si procvičit mozkové závity v oblasti NLP – zpracování přirozeného textu? Mám pro vás jednu úlohu pro pokročilé, kterou jsem právě dostal a vyřešil v „Ruské škole“.
Procvičme si „Hidden Markov Model“ se třemi skrytými stavy: N (noun = podstatné jméno), V (verb=sloveso) a O (other = jiné slovo). Nechť všechny přechody mezi jednotlivými stavy rovnocenné (mají stejnou pravděpodobnost).
Předpokládejme následující možné výstupy:
N: mimsy | borogoves
V: were | borogoves
O: All | mimsy | the
Nyní si otestujme tuto větu „All mimsy were the borogoves“.
Kontrolní otázky pro vás:
1) Jaké tagy můžeme v souladu s Hidden Markov Model (skrytý Markovův model) vytvořit (např. ONVON…)?
2) Jaký tag má nevětší pravděpodobnost (pozor trošku chyták)?
3) Pravděpodobnost přechodu p (V | O) čili z O na V je v tomto modeluje 1/3. Spočítejte jednu interakcí Baum-Welchova algoritmu a řekněte, jak se změní pravděpodobnost (nápověda: je třeba odhadnout pravděpodobnosti pro (O -> V) a (O->?) a spočítat jejich poměr).
Výzva: Tomu, kdo sem první napíše všechny tři správné odpovědi platím pivo!
Ukázka inspirována: https://www.coursera.org/le…/language-processing/home/week/2