15 ledna, 2021 Nový šampión na scéně? Jazykový model Switch Transformer od společnosti Google je téměř šestkrát větší než GPT-3! Switch Transformer má 9x více parametrů tedy 1,6 bilionu. Google optimalizoval…
7 ledna, 2021 Ohlédnutí za minulou dekádou Nenajdete tam sice rok 2020 nebo třeba GPT, ale celkově moc povedené:) https://towardsdatascience.com/the-decade-of-artificial…
22 prosince, 2019 Další kurz splněn Právě jsem dokončil kurz „Learn BERT – most powerful NLP algorithm by Google“. Je to pokročilejší kurz, který jak teoreticky, tak i prakticky seznamuje…
22 prosince, 2019 Výstupy z AI zkoumala konference NeurIPS. K čemu dospěla? Nedávno se v kanadském Vancouveru konala konference Neural Information Processing Systems (NeurIPS), na které se shromáždilo více než 13 000 vědců z různých oborů….
1 října, 2019 Nejnovější model umělé inteligence pro zpracování přirozeného jazyka – ALBERT! Mezi nejlepší modely umělé inteligence pro zpracování přirozeného jazyka (Bert, Robert, GPT-2 či Megatron) přišel minulý týden další hráč ALBERT! Alberta nám přináší společnosti…
14 srpna, 2019 Společnost Nvidia oznámila, že vyškolila největší jazykový model na světě GPT-2 8B! Model používá 8,3 miliardy parametrů a je 24krát větší než BERT a 5krát větší než doposud největší GPT-2 od OpenAI. Nvidia použila paralelismus, který…
4 listopadu, 2018 Společnost Google tento týden zveřejnila svou nejmodernější technologickou hračku – Bidirectional Encoder Representations Transformers neboli BERT V čem se BERT liší klasických NLP modelů, jako jsou word2vec a GloVe? Word2vec a ostatní modely totiž generují bezkontextové vkládání slov. Každé slovo…