Blog
Najstarší blog o AI v Českej republike
Píšeme o umelej inteligencii od roku 2017. 1000+ článkov, tisíce strán myšlienok, experimentov a reflexií. Bez senzácií, bez reklám.
Filter tagu: BERT × zrušiť
▸Prechádzať podľa tém
Témy
Zobrazené 7 z 7 článkov
Archív 2021Nový šampión na scéně?
Jazykový model Switch Transformer od společnosti Google je téměř šestkrát větší než GPT-3! Switch Transformer má 9x více parametrů tedy 1,6 bilionu. Google optimalizoval…
Čítať
Archív 2021Ohlédnutí za minulou dekádou
Nenajdete tam sice rok 2020 nebo třeba GPT, ale celkově moc povedené:) https://towardsdatascience.com/the-decade-of-artificial…
Čítať
Archív 2019Výstupy z AI zkoumala konference NeurIPS. K čemu dospěla?
Nedávno se v kanadském Vancouveru konala konference Neural Information Processing Systems (NeurIPS), na které se shromáždilo více než 13 000 vědců z různých oborů….
Čítať
Archív 2019Další kurz splněn
Právě jsem dokončil kurz „Learn BERT – most powerful NLP algorithm by Google“. Je to pokročilejší kurz, který jak teoreticky, tak i prakticky seznamuje…
Čítať
Archív 2019Nejnovější model umělé inteligence pro zpracování přirozeného jazyka – ALBERT!
Mezi nejlepší modely umělé inteligence pro zpracování přirozeného jazyka (Bert, Robert, GPT-2 či Megatron) přišel minulý týden další hráč ALBERT! Alberta nám přináší společnosti…
Čítať
Archív 2019Společnost Nvidia oznámila, že vyškolila největší jazykový model na světě GPT-2 8B!
Model používá 8,3 miliardy parametrů a je 24krát větší než BERT a 5krát větší než doposud největší GPT-2 od OpenAI. Nvidia použila paralelismus, který…
Čítať
Archív 2018Společnost Google tento týden zveřejnila svou nejmodernější technologickou hračku – Bidirectional Encoder Representations Transformers neboli BERT
V čem se BERT liší klasických NLP modelů, jako jsou word2vec a GloVe? Word2vec a ostatní modely totiž generují bezkontextové vkládání slov. Každé slovo…
Čítať