15. 11. 2018 21:24
Jsem myslel, ze v roce 2018 uz je snad vsechno alespon ctyrbajt. (S vyjimkou arduina a jinych embedded veci.)
15. 11. 2018 21:45
Pro deep learning je to zbytečně moc.
15. 11. 2018 23:15
Čtyřbajt jo, dokonce osmibajt. Tyhle hodnoty se pak můžou nacpat třeba do 128bit registru jako vektor.
16. 11. 2018 0:00
Není, pro skalární počítání se méně nevyplatí, ale vektorové instrukce (včetně AVX2) umí počítat s vektory 8, 16, 32 i 64bit čísel.
15. 11. 2018 23:16
Tak už máme floating point. Někdo by to mohl zobecnit na floating mantisa/exponent ratio :-D
16. 11. 2018 5:37
Par bitu by se pouzilo na urceni pozice kde je mantisa a kde je uz exponent.
16. 11. 2018 6:36
To by byla lahůdka podporovat v HW, zejména pro vektorové operace..
16. 11. 2018 9:17
Prima, to se může hodit i v grafice a hrách.
16. 11. 2018 15:29
odkedy nie su dolezite vo vypoctoch inf a nan? ved len obycajny softmax ma s tym problem.
14. 5. 2019 13:13
Neuronové sítě nedělí, takže se k nekonečnu ani dělení nulou (NaN) moc nemají jak dostat. Navíc se používá aritmetika se saturací, takže ani nic nepřetíká.