Stále je to spíše koncept, u kterého jsou výsledky relativně slabé, ale jsem překvapen, že to vůbec funguje. Podívejme se na strojový překlad. Klasicky se dnes dělá strojový překlad tak, že máte velké množství paralelních vět (např. v češtině a angličtině tu samou větu “Miluji tě.“ = “I love you.“).
Minulý rok jsem zde publikoval své výsledky, jak jsem takto naučil počítač česky/anglicky za 15 minut. Bylo to klasické učení s učitelem. Při tréninku jsem síto řekl, co považuji za dobrý překlad.
Tento přístup je však jiný. V čem je tento přístup jiný? Nebudete krmit počítač paralelními větami, ale dvěma velkými monolingvními korpusy v každém jazyce. Celý trik je v tom, že v rámci tohoto algoritmu dochází k automatickému generování paralelních dat pomocí iterativního zpětného překladu.
Zdroje:
https://arxiv.org/pdf/1804.07755v2.pdf
https://arxiv.org/abs/1804.07755
http://ruder.io/10-exciting-ideas-of-2018-in-nlp/…
GIT: https://github.com/facebookresearch/UnsupervisedMT