Test rychlosti GPU
Víte, proč je možné dělat skutečně hlubokou umělou inteligenci až nyní? Třeba proto, že máme lepší algoritmy. Zkusil jsem v pythonu porovnat, jak rychle…

Víte, proč je možné dělat skutečně hlubokou umělou inteligenci až nyní? Třeba proto, že máme lepší algoritmy.
Zkusil jsem v pythonu porovnat, jak rychle dokážu vynásobit 10 milionů náhodných čísel s jinými 10 miliony náhodnými čísly. Nejprve pěkně postaru pomocí cyklů (for) – na CPU v notebooku to zabralo 4,9 vteřiny – slušné říkám si. Na nabušené grafické kartě desktopu 3,7 vteřiny – paráda. A co zkusit místo cyklu použít tensory (v tomto případě obyčejné matice). Na CPU notebooku jen 9 ms a na GPU dokonce jen 6 ms! Slušný progres.
Použití tensorů tedy zrychlí síť 500x na CPU a 625x na GPU:)
Víte, proč je možné dělat skutečně hlubokou umělou inteligenci až nyní? Třeba proto, že máme lepší algoritmy. Zkusil…
Zveřejnil(a) Umělá inteligence dne 15. říjen 2017
Oryginalne źródło: wordpress
Související články
styczeń 2018
Závěr trilogie o autoenkóderech aneb Genesis 2.0 – až po stvoření prvních lidí
Czytajsierpień 2018
Zpráva pro vývojáře AI: Nedávno jsem potřeboval updatovat nějaké knihovny v Pythonu a mimoděk mi přitom přestalo fungovat Tensorflow přes GPU.
Czytajstyczeń 2018