SlideShare a Scribd company logo
1 of 51
Download to read offline
GPGPU教育計算機システムGROUSEの
利用方法
長岡技術科学大学 電気電子情報工学専攻 出川智啓
情報処理センターGPGPUシステム
 16台の計算サーバで構成
 NVIDIA Tesla M2050を搭載
 各サーバに4機ずつ計64機 grouse
tesla01 ‐ tesla04
M2050×16
tesla05 ‐ tesla08
M2050×16
tesla09 – tesla12
M2050×16
tesla13 – tesla16
M2050×16
外部ネットワーク
2015/04/09先端GPGPUシミュレーション工学特論40
grouseへのlogin
2015/04/09先端GPGPUシミュレーション工学特論41
2013年度GPGPU講習会資料より引用
統合アカウントとパスワード入力
2015/04/09先端GPGPUシミュレーション工学特論42
2013年度GPGPU講習会資料より引用
ターミナルの起動
2015/04/09先端GPGPUシミュレーション工学特論43
2013年度GPGPU講習会資料より引用
ターミナルの起動
2015/04/09先端GPGPUシミュレーション工学特論44
2013年度GPGPU講習会資料より引用
エディタでプログラムを作成
2015/04/09先端GPGPUシミュレーション工学特論45
2013年度GPGPU講習会資料より引用
tesla??へのログイン
もう一つターミナルを起動し,下の
ターミナルでログイン
$ ssh␣–l␣ユーザID␣tesla??
(??には01~16の番号を入力)
2015/04/09先端GPGPUシミュレーション工学特論46
2013年度GPGPU講習会資料より引用
tesla??でのコンパイルと実行
2015/04/09先端GPGPUシミュレーション工学特論47
2013年度GPGPU講習会資料より引用
端末室以外からの利用
1. Teratermでgrouseにログイン
2015/04/09先端GPGPUシミュレーション工学特論48
2013年度GPGPU講習会資料より引用
端末室以外からの利用
2. sshでtesla??にログイン
$ ssh␣–l␣ユーザID␣tesla??
(??には01~16の番号を入力)
2015/04/09先端GPGPUシミュレーション工学特論49
2013年度GPGPU講習会資料より引用
端末室以外からの利用
 GPU情報の表示
$ pgaccelinfo
2015/04/09先端GPGPUシミュレーション工学特論50
2013年度GPGPU講習会資料より引用
端末室以外からの利用
 nvcc(CUDAコンパイラ)の確認
2015/04/09先端GPGPUシミュレーション工学特論51
2013年度GPGPU講習会資料より引用
$ nvcc ‐‐version
情報処理センターでのCUDAの使い方
 grouseやteslaでソースファイルを作成し,tesla
上でコンパイル・実行
 端末上でソースファイルを作成してwinscpなどで
ファイルをgrouse上にアップロードした後,コンパイ
ル・実行
2015/04/09先端GPGPUシミュレーション工学特論52
WinSCP
 Unixコマンドscp(secure copy)のWindows GUI
クライアント
 Secure Shell (ssh) に含まれるsshの機能を
使って安全性の高いファイル転送を行う
Host名 grouse
統合アカウントの
ユーザ名とパスワード
login
2015/04/09先端GPGPUシミュレーション工学特論53
tesla??でコンパイルと実行
 コンパイル
 $ nvcc kernel.cu
 問題なければa.outという実行ファイルができる
 実行
 $ ./a.out
 対応オプションの一覧は‐hオプションで確認可能
 $ nvcc ‐h
2015/04/09先端GPGPUシミュレーション工学特論54
GPUの選択
 計算機がGPUを複数搭載している場合
 標準ではGPU1台しか利用できない
 CUDAで利用するGPUを選択
 cudaSetDevice();
2015/04/09先端GPGPUシミュレーション工学特論56
int main(void){
変数宣言 //ここでは標準でGPU0が使われる
GPUやCPUを使った処理//
cudaSetDevice(1); //ここからGPU1が使われる
...  
return 0;
}
GPUの選択
 搭載されているGPUの確認
 cudaGetDeviceCount();
 搭載されているGPUの数をint型引数に書き込み
 搭載されているGPUの情報
 cudaGetDeviceProperties();
 指定されたGPU番号の情報をcudaDeviceProp型構造体に
書き込み
2015/04/09先端GPGPUシミュレーション工学特論57
int deviceCount;
cudaGetDeviceCount(&deviceCount);
cudaDeviceProp deviceProp;
cudaSetDevice(1);                       //GPU1を使用
cudaGetDeviceProperties(&deviceProp, 1);//GPU1の情報を取得
printf("¥nDevice %d: ¥"%s¥"¥n", 1, deviceProp.name);
エラー処理(CUDA API)
 CUDAのAPIは,cudaError_t型のエラーコード
(status)を返す
 cudaGetErrorSting()で表示
先端GPGPUシミュレーション工学特論58 2015/04/09
cudaError_t err;
err = cudaMemcpy();
if(err != cudaSuccess){
printf("%s¥n", cudaGetErrorString(err));
}
GPUの選択(エラー処理有り)
2015/04/09先端GPGPUシミュレーション工学特論59
#include<stdio.h>
#include<stdlib.h>
int main(void){
int deviceCount = 0,dev;
cudaDeviceProp deviceProp;
cudaError_t err;
//GPUの数を確認
err = cudaGetDeviceCount(&deviceCount);
//返値がcudaSuccess以外なら何らかのエラーがある
if(err !=cudaSuccess){
printf("%s¥n",cudaGetErrorString(err));
exit(1);
}
//GPUの数が0ならメッセージを表示して終了
if(deviceCount == 0){ //搭載されたGPUの数が0
printf("There are no available
device(s) that support CUDA¥n");
exit(1);
}
else{//搭載されたGPUの数が0以外
printf("Detected %d CUDA Capable
device(s)¥n", deviceCount);
for(dev = 0; dev < deviceCount; dev++){
//情報を取得するGPUの選択
cudaSetDevice(dev);
cudaGetDeviceProperties
(&deviceProp, dev);
printf("¥nDevice %d: ¥"%s¥"¥n", 
dev, deviceProp.name);
}
}
//利用するGPUの設定とデータの表示
dev = _____;
cudaSetDevice(dev); //重要なのはこの1行
cudaGetDeviceProperties(&deviceProp, dev);
printf("Set device %d: ¥"%s¥" ¥n", 
dev, deviceProp.name);
return 0;
}
setdevice_err.cu
GPUの選択(エラー処理無し)
2015/04/09先端GPGPUシミュレーション工学特論60
#include<stdio.h>
int main(void){
int deviceCount = 0,dev;
cudaDeviceProp deviceProp;
//GPUの数を確認
cudaGetDeviceCount(&deviceCount);
printf("Detected %d CUDA Capable
device(s)¥n", deviceCount);
for(dev = 0; dev < deviceCount; dev++){
//情報を取得するGPUの選択
cudaSetDevice(dev);
cudaGetDeviceProperties
(&deviceProp, dev);
printf("¥nDevice %d: ¥"%s¥"¥n", 
dev, deviceProp.name);
}
//利用するGPUの設定とデータの表示
dev = _____;
cudaSetDevice(dev); //重要なのはこの1行
cudaGetDeviceProperties(&deviceProp, dev);
printf("Set device %d: ¥"%s¥" ¥n", 
dev, deviceProp.name);
return 0;
}
setdevice.cu
実行イメージ
grouse
処理
処理結果出力
キー入力,マウス入力
2015/04/09先端GPGPUシミュレーション工学特論61
tesla??へのログイン
もう一つターミナルを起動し,下の
ターミナルでログイン
$ ssh␣–l␣ユーザID␣tesla??
(??には01~16の番号を入力)
2015/04/09先端GPGPUシミュレーション工学特論62
2013年度GPGPU講習会資料より引用
tesla??でのコンパイルと実行
2015/04/09先端GPGPUシミュレーション工学特論63
2013年度GPGPU講習会資料より引用
実行イメージ
grouse
処理
処理結果出力
キー入力,マウス入力
$ ssh␣tesla16
tesla16
キー入力
処理
処理結果
2015/04/09先端GPGPUシミュレーション工学特論64
エディタでプログラムを作成
2015/04/09先端GPGPUシミュレーション工学特論65
2013年度GPGPU講習会資料より引用
実行イメージ
grouse
キー入力
処理
画面出力
2015/04/09先端GPGPUシミュレーション工学特論66
tesla16
実行イメージ
grouse
ファイル
保存
ハード
ディスク
2015/04/09先端GPGPUシミュレーション工学特論67
tesla16
共有
共有
共有
実行イメージ
grouse
キー入力,マウス入力
$ ssh␣tesla16
$ nvcc ??.cu
キー入力
処理結果
ハード
ディスク
??.cu
コンパイル
2015/04/09先端GPGPUシミュレーション工学特論68
処理結果出力
tesla16
実行イメージ
grouse処理結果出力
キー入力,マウス入力
$ ssh␣tesla16
$ nvcc ??.cu
$ ./a.out
キー入力
処理結果
ハード
ディスク
a.out
実行
2015/04/09先端GPGPUシミュレーション工学特論69
tesla16
ソース
ファイル
Windows上のソースファイルをコピー
grouse
ハード
ディスク
WinSCPでコピー
ハード
ディスク
2015/04/09先端GPGPUシミュレーション工学特論70
ソース
ファイル
tesla16
共有
共有
共有
ソースファイルを作ってくださいと言われたら
2015/04/09先端GPGPUシミュレーション工学特論71
 Windowsで作る場合
1. メモ帳やVisual Studio等でプログラム(.cや.cuの
ファイル)を書いてZドライブに保存
2. WinSCPでgrouseに転送
ソースファイルを作ってくださいと言われたら
2015/04/09先端GPGPUシミュレーション工学特論72
 grouseで作る場合
1. grouseにログイン
2. テキストエディタを起動してプログラム(.cや.cuのファイ
ル)を書いて保存(ホームディレクトリ以下)
 tesla??で作る場合
1. grouseにログイン
2. ターミナルを起動
3. ターミナル上で ssh tesla?? を実行してtesla??にロ
グイン
4. tesla??にログインしたターミナルでviやemacsを起動し
てプログラムを書いて保存
ソースファイルをコンパイルして実行してくだ
さいと言われたら
2015/04/09先端GPGPUシミュレーション工学特論73
1. grouseにログイン
2. ターミナルを起動
3. ターミナル上でssh tesla??を実行してtesla??に
ログイン
4. ソースファイルのコンパイル
• nvcc ソースファイル名
• Windowsでソースファイルを作った場合は,WinSCPでgrouse
に転送
• ハードディスクはgrouseとtesla??で共有されている
5. コンパイルによってできた実行ファイルを実行
• 標準のファイル名はa.out
補足
プロセッサの性能向上
 電子回路の構成部品
 機械式リレー
 真空管
 トランジスタ
 IC (Integrated Circuit)
 LSI (Large Scale Integrated Circuit)
集積率が上昇
2015/04/09先端GPGPUシミュレーション工学特論76
プロセッサの性能向上
 CPUとメモリの性能向上
 半導体の製造過程で回路を細線化
 250nm→180nm→130nm→90nm→65nm→45nm→32nm
 現在22nm (10nmまではなんとかなりそう→3次元構造へ)
 線幅が狭小化
 同じ回路を作る際の面積が減少
 同じ面積に集積するトランジスタ数は増加
2015/04/09先端GPGPUシミュレーション工学特論77
ムーアの法則*
 インテルの共同設立者ムーアによる経験則
 半導体の集積率は1年で2倍に増加
 後に「18ヶ月で2倍」に修正
2015/04/09先端GPGPUシミュレーション工学特論78
*Moore, G.E., Electronics, Vol.38,No.8(1965).
http://ja.wikipedia.org/wiki/ムーアの法則
http://en.wikipedia.org/wiki/Moore%27s_law
姫野龍太郎,絵でわかるスーパーコンピュータ,
講談社 (2012)に掲載されている絵を基に作成
1970 1975 1980 1985 1990 1995 2000 2005 2010
103
104
105
106
107
108
109
1010
NumberofTransistors
4004
8008
8080
8086
286
Intel386プロセッサ
Intel486プロセッサ
インテルPentiumプロセッサ
インテルPentium IIプロセッサ
インテルPentium IIIプロセッサ
インテルPentium 4プロセッサ
インテルItaniumプロセッサ
インテルItanium 2プロセッサ
デュアルコアインテルItanium 2プロセッサ
ムーアの法則
(12ヶ月で倍)
ムーアの法則
(18ヶ月で倍)
プロセッサの性能向上
 プロセッサの処理速度の向上
 1秒あたりに0と1を切り替える回数(動作周波数)を増加
 周波数を上げるためには電圧を上げる
 (トランジスタ スイッチング速度,消費電力等のキーワードでGoogling)
 消費電力は電圧の2乗に比例
 消費電力の増加は発熱量の増加に直結
 発熱による回路の誤動作や故障
 空気による冷却
 対応できるのは消費電力は100W以下(ホットプレート並)
2015/04/09先端GPGPUシミュレーション工学特論79
プロセッサの性能向上
 製造技術の進歩による配線の細線化
 抵抗が線幅に比例して減少
 抵抗が減少して消費電力が減少
 減少した電力を周波数向上に利用
 細線化により絶縁部分も狭小化
 漏れ電流の発生
 消費電力が減少せず
 周波数向上が不可能
2015/04/09先端GPGPUシミュレーション工学特論80
ポラックの法則*
 2倍のトランジスタを使っても,プロセッサの性能はそ
の平方根倍(1.4倍)程度にしか伸びない
 消費電力は2倍,性能は1.4倍
 一つのCPUに複数のプロセッサ(コア)を搭載
 消費電力を上げずに理論的な性能を倍に
 消費電力は2倍,理論的な性能も2倍
 プログラムの作り方に工夫が必要
 複数のコアを使うようにプログラムを作成(改良)
2015/04/09先端GPGPUシミュレーション工学特論81
*http://ja.wikipedia.org/wiki/ポラックの法則
http://en.wikipedia.org/wiki/Pollack%27s_Rule
プロセッサの性能向上
2015/04/09先端GPGPUシミュレーション工学特論82
半導体回路
の細線化
消費電力が
低下
低下分の電
力をトランジ
スタのスイッ
チングに利用
動作周波数
向上
性能向上
プロセッサの性能向上
2015/04/09先端GPGPUシミュレーション工学特論83
半導体回路
の細線化
消費電力が
低下
低下分の電
力をトランジ
スタのスイッ
チングに利用
動作周波数
向上
性能向上
絶縁部が狭くなり
漏れ電流が発生,
電力が低下しない
消費電力の増加に
よって発熱量が増
加,空冷の限界
2倍のトランジスタ
を使っても性能は
1.4倍程度にしか
伸びない
プロセッサの性能向上
2015/04/09先端GPGPUシミュレーション工学特論84
半導体回路
の細線化
消費電力が
低下
低下分の電
力をトランジ
スタのスイッ
チングに利用
動作周波数
向上
性能向上
絶縁部が狭くなり
漏れ電流が発生,
電力が低下しない
消費電力の増加に
よって発熱量が増
加,空冷の限界
2倍のトランジスタ
を使っても性能は
1.4倍程度にしか
伸びない
コア数の増加
スーパーコンピュータの重要性
 科学技術の競争力を高める・維持するうえで重要
 コンピュータシミュレーション(計算機科学)
 理論と実験に次ぐ第3の科学
 現象の再現,模擬実験
 理論によって導かれた方程式をシミュレーションにより検証
 実験ができない現象も再現可能
 天体,ビックバン,銀河の衝突等
2015/04/09先端GPGPUシミュレーション工学特論85
スーパーコンピュータの重要性
 よい道具は世界観を変える
 天体望遠鏡が宇宙に対する世界観を変えた
 顕微鏡がミクロの世界に対する世界観を変えた
 いいコンピュータを持つと,他の科学者にはできない
発見ができる
 よい道具を持っているだけではだめ
 何に使うかが非常に重要
2015/04/09先端GPGPUシミュレーション工学特論86
シミュレーションとノーベル賞
 1998年ノーベル化学賞
 受賞者
 ウォルター・コーン
 受賞理由
 量子化学における計算化学的方法の展開
 分子の電子状態を求める分子軌道法という計算方法に
関する理論の研究を行うと共に,GAUSSIANと呼ばれる
アプリケーションソフトウェアの開発を行った
2015/04/09先端GPGPUシミュレーション工学特論87
シミュレーションとノーベル賞
 2006年ノーベル物理学賞
 受賞者
 ジョージ・ストーム
 ジョン・マザー
 受賞理由
 宇宙マイクロ波背景放射の異方性の発見
 直接の理由は精度の高い計測器を開発したことだが,計
測データの処理に非常に大きな計算能力が必要で,コン
ピュータが重要な役割を果たした
2015/04/09先端GPGPUシミュレーション工学特論88
シミュレーションとノーベル賞
 2007年ノーベル平和賞
 受賞者
 気候変動に関する政府間パネル
 アル・ゴア
 受賞理由
 地球温暖化の防止に対する貢献
 温室効果ガスが地球の気候にどんな影響を与えるかを
スーパーコンピュータを使ったシミュレーションで計算し,
提言をまとめた
 温暖化には地域差があることや降水量の変動を明らかにした
 実は地球シミュレータも大活躍
2015/04/09先端GPGPUシミュレーション工学特論89
シミュレーションとノーベル賞
 2011年ノーベル経済学賞
 受賞者
 トーマス・サージェント
 クリストファー・シムズ
 受賞理由
 マクロ経済の原因と結果をめぐる実証的な研究に関する功績
 マクロ経済に影響する複雑な要素を研究し,政策をたてる
際に役立つ方法を提供した.過去の大量のデータを分析す
るためにコンピュータを利用した
2015/04/09先端GPGPUシミュレーション工学特論90
シミュレーションの展開
 コンピュータシミュレーションによる仮想実験,未知
の現象の発見
 大量のデータを高速に処理して分析
 ビッグデータ
 汎用的なコンピュータから科学技術計算専用のスー
パーコンピュータへ
 科学技術計算に加えてデータ処理を考慮した設計
が行われるようになる
2015/04/09先端GPGPUシミュレーション工学特論91

More Related Content

More from 智啓 出川

Very helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference methodVery helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference method智啓 出川
 
Why do we confuse String and Array of Characters in Fortran?
Why do we confuse String and Array of Characters in Fortran?Why do we confuse String and Array of Characters in Fortran?
Why do we confuse String and Array of Characters in Fortran?智啓 出川
 
Pythonによる累乗近似
Pythonによる累乗近似Pythonによる累乗近似
Pythonによる累乗近似智啓 出川
 
数値計算結果のPythonによる後処理について(1次元データのピーク値およびその位置の推定)
数値計算結果のPythonによる後処理について(1次元データのピーク値およびその位置の推定)数値計算結果のPythonによる後処理について(1次元データのピーク値およびその位置の推定)
数値計算結果のPythonによる後処理について(1次元データのピーク値およびその位置の推定)智啓 出川
 
オブジェクト指向Fortranが拓く(はずだった)新しい世界
オブジェクト指向Fortranが拓く(はずだった)新しい世界オブジェクト指向Fortranが拓く(はずだった)新しい世界
オブジェクト指向Fortranが拓く(はずだった)新しい世界智啓 出川
 
Schematic diagrams of GPUs' architecture and Time evolution of theoretical FL...
Schematic diagrams of GPUs' architecture and Time evolution of theoretical FL...Schematic diagrams of GPUs' architecture and Time evolution of theoretical FL...
Schematic diagrams of GPUs' architecture and Time evolution of theoretical FL...智啓 出川
 
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust) GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust) 智啓 出川
 
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE) GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE) 智啓 出川
 
GPGPU Seminar (GPU Accelerated Libraries, 1 of 3, cuBLAS)
GPGPU Seminar (GPU Accelerated Libraries, 1 of 3, cuBLAS) GPGPU Seminar (GPU Accelerated Libraries, 1 of 3, cuBLAS)
GPGPU Seminar (GPU Accelerated Libraries, 1 of 3, cuBLAS) 智啓 出川
 
GPGPU Education at Nagaoka University of Technology: A Trial Run
GPGPU Education at Nagaoka University of Technology: A Trial RunGPGPU Education at Nagaoka University of Technology: A Trial Run
GPGPU Education at Nagaoka University of Technology: A Trial Run智啓 出川
 
Cuda fortranの利便性を高めるfortran言語の機能
Cuda fortranの利便性を高めるfortran言語の機能Cuda fortranの利便性を高めるfortran言語の機能
Cuda fortranの利便性を高めるfortran言語の機能智啓 出川
 
PGI CUDA FortranとGPU最適化ライブラリの一連携法
PGI CUDA FortranとGPU最適化ライブラリの一連携法PGI CUDA FortranとGPU最適化ライブラリの一連携法
PGI CUDA FortranとGPU最適化ライブラリの一連携法智啓 出川
 
教育機関でのJetsonの活用の可能性
教育機関でのJetsonの活用の可能性教育機関でのJetsonの活用の可能性
教育機関でのJetsonの活用の可能性智啓 出川
 
GPGPU Seminar (GPGPU and CUDA Fortran)
GPGPU Seminar (GPGPU and CUDA Fortran)GPGPU Seminar (GPGPU and CUDA Fortran)
GPGPU Seminar (GPGPU and CUDA Fortran)智啓 出川
 
GPGPU Seminar (Accelerataion of Lattice Boltzmann Method using CUDA Fortran)
GPGPU Seminar (Accelerataion of Lattice Boltzmann Method using CUDA Fortran)GPGPU Seminar (Accelerataion of Lattice Boltzmann Method using CUDA Fortran)
GPGPU Seminar (Accelerataion of Lattice Boltzmann Method using CUDA Fortran)智啓 出川
 
GPGPU Seminar (PyCUDA)
GPGPU Seminar (PyCUDA)GPGPU Seminar (PyCUDA)
GPGPU Seminar (PyCUDA)智啓 出川
 
2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調
2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調
2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調智啓 出川
 
2015年度先端GPGPUシミュレーション工学特論 第14回 複数GPUの利用
2015年度先端GPGPUシミュレーション工学特論 第14回 複数GPUの利用2015年度先端GPGPUシミュレーション工学特論 第14回 複数GPUの利用
2015年度先端GPGPUシミュレーション工学特論 第14回 複数GPUの利用智啓 出川
 
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用 (高度な最適化)
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用(高度な最適化)2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用(高度な最適化)
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用 (高度な最適化)智啓 出川
 
2015年度先端GPGPUシミュレーション工学特論 第11回 数値流体力学への応用 (支配方程式,CPUプログラム)
2015年度先端GPGPUシミュレーション工学特論 第11回 数値流体力学への応用(支配方程式,CPUプログラム)2015年度先端GPGPUシミュレーション工学特論 第11回 数値流体力学への応用(支配方程式,CPUプログラム)
2015年度先端GPGPUシミュレーション工学特論 第11回 数値流体力学への応用 (支配方程式,CPUプログラム)智啓 出川
 

More from 智啓 出川 (20)

Very helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference methodVery helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference method
 
Why do we confuse String and Array of Characters in Fortran?
Why do we confuse String and Array of Characters in Fortran?Why do we confuse String and Array of Characters in Fortran?
Why do we confuse String and Array of Characters in Fortran?
 
Pythonによる累乗近似
Pythonによる累乗近似Pythonによる累乗近似
Pythonによる累乗近似
 
数値計算結果のPythonによる後処理について(1次元データのピーク値およびその位置の推定)
数値計算結果のPythonによる後処理について(1次元データのピーク値およびその位置の推定)数値計算結果のPythonによる後処理について(1次元データのピーク値およびその位置の推定)
数値計算結果のPythonによる後処理について(1次元データのピーク値およびその位置の推定)
 
オブジェクト指向Fortranが拓く(はずだった)新しい世界
オブジェクト指向Fortranが拓く(はずだった)新しい世界オブジェクト指向Fortranが拓く(はずだった)新しい世界
オブジェクト指向Fortranが拓く(はずだった)新しい世界
 
Schematic diagrams of GPUs' architecture and Time evolution of theoretical FL...
Schematic diagrams of GPUs' architecture and Time evolution of theoretical FL...Schematic diagrams of GPUs' architecture and Time evolution of theoretical FL...
Schematic diagrams of GPUs' architecture and Time evolution of theoretical FL...
 
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust) GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
 
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE) GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
 
GPGPU Seminar (GPU Accelerated Libraries, 1 of 3, cuBLAS)
GPGPU Seminar (GPU Accelerated Libraries, 1 of 3, cuBLAS) GPGPU Seminar (GPU Accelerated Libraries, 1 of 3, cuBLAS)
GPGPU Seminar (GPU Accelerated Libraries, 1 of 3, cuBLAS)
 
GPGPU Education at Nagaoka University of Technology: A Trial Run
GPGPU Education at Nagaoka University of Technology: A Trial RunGPGPU Education at Nagaoka University of Technology: A Trial Run
GPGPU Education at Nagaoka University of Technology: A Trial Run
 
Cuda fortranの利便性を高めるfortran言語の機能
Cuda fortranの利便性を高めるfortran言語の機能Cuda fortranの利便性を高めるfortran言語の機能
Cuda fortranの利便性を高めるfortran言語の機能
 
PGI CUDA FortranとGPU最適化ライブラリの一連携法
PGI CUDA FortranとGPU最適化ライブラリの一連携法PGI CUDA FortranとGPU最適化ライブラリの一連携法
PGI CUDA FortranとGPU最適化ライブラリの一連携法
 
教育機関でのJetsonの活用の可能性
教育機関でのJetsonの活用の可能性教育機関でのJetsonの活用の可能性
教育機関でのJetsonの活用の可能性
 
GPGPU Seminar (GPGPU and CUDA Fortran)
GPGPU Seminar (GPGPU and CUDA Fortran)GPGPU Seminar (GPGPU and CUDA Fortran)
GPGPU Seminar (GPGPU and CUDA Fortran)
 
GPGPU Seminar (Accelerataion of Lattice Boltzmann Method using CUDA Fortran)
GPGPU Seminar (Accelerataion of Lattice Boltzmann Method using CUDA Fortran)GPGPU Seminar (Accelerataion of Lattice Boltzmann Method using CUDA Fortran)
GPGPU Seminar (Accelerataion of Lattice Boltzmann Method using CUDA Fortran)
 
GPGPU Seminar (PyCUDA)
GPGPU Seminar (PyCUDA)GPGPU Seminar (PyCUDA)
GPGPU Seminar (PyCUDA)
 
2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調
2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調
2015年度先端GPGPUシミュレーション工学特論 第15回 CPUとGPUの協調
 
2015年度先端GPGPUシミュレーション工学特論 第14回 複数GPUの利用
2015年度先端GPGPUシミュレーション工学特論 第14回 複数GPUの利用2015年度先端GPGPUシミュレーション工学特論 第14回 複数GPUの利用
2015年度先端GPGPUシミュレーション工学特論 第14回 複数GPUの利用
 
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用 (高度な最適化)
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用(高度な最適化)2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用(高度な最適化)
2015年度先端GPGPUシミュレーション工学特論 第13回 数値流体力学への応用 (高度な最適化)
 
2015年度先端GPGPUシミュレーション工学特論 第11回 数値流体力学への応用 (支配方程式,CPUプログラム)
2015年度先端GPGPUシミュレーション工学特論 第11回 数値流体力学への応用(支配方程式,CPUプログラム)2015年度先端GPGPUシミュレーション工学特論 第11回 数値流体力学への応用(支配方程式,CPUプログラム)
2015年度先端GPGPUシミュレーション工学特論 第11回 数値流体力学への応用 (支配方程式,CPUプログラム)
 

2015年度先端GPGPUシミュレーション工学特論 第1回補足 GPGPU教育計算機システムGROUSEの利用方法