ここずっと, プログラミングができなくてストレスが
溜まっていたので, 仕事を放置して, CUDA で遊ぶ.
いろいろ計算して遊んでみたところ, 確かに GPU を
使うのはそれほど難しいことではないし,
結構早くすることができるようだと思った.
ただ, 計算精度が通常の float に比べて劣るのだろうか?
Core 2 Duo 上の float や double を使った計算結果と
比べてると, 予想外に誤差が大きかった.
うーん. これでいいのだろうか.
あと, Core 2 Duo の 32bitモードで使っているが,
float のみで計算するより, double で計算した方が
4倍ほど高速になった. アセンブルの結果をみないと
なんとも言えないが, 暗黙の型変換が行われているのだろうか.
0 件のコメント:
コメントを投稿