SlideShare a Scribd company logo
1 of 49
Download to read offline
ついにきたリアルタイムSpark
ビッグデータ処理の新定番「SnappyData」とは
2017.11.18
自己紹介
山河 征紀
ウルシステムズ株式会社
マネージングコンサルタント
{
“分野”:”金融系”
“得技”:[“分散処理”,
“インメモリー処理”]
“趣味”:”マラソン”
}
現在のビッグデータ基盤の課題
Part 1
4
ビッグデータの処理基盤に満足していますか?
複数プロダクトを組み合わせており複雑
データ連携に意外にも時間がかかる
インタラクティブな分析を行うにはパフォーマンスが悪い
キャッシュだと速いが、メモリーへの読み込みが必要
データの更新は苦手なものが多い
ビッグデータ処理のよくある要求
トランザクション アナリティクス
従来からの
データ処理
RDBMS DWH
5
ビッグデータ
処理
NoSQL SQL on Hadoop
ストリーミング
ストリームデータ処理
技術を積み上げるとツギハギのシステムになりがち
業務データの記録
業務システム RDBMS
6
データの集約 データの可視化、分析
DWH BI/データ分析
大量データの記録、処理
Web/B2Cサービスなど
データの集約
データの可視化、分析
リアルタイムデータの処理
履歴データの保管
IoT/センサー/
リアルタイムデータなど
ストリームデータ処理
リアルタイム
AP
通知、アラート
技術を積み上げるとツギハギのシステムになりがち
業務データの記録
業務システム RDBMS
7
データの集約 データの可視化、分析
DWH BI/データ分析
大量データの記録、処理
Web/B2Cサービスなど
データの集約
データの可視化、分析
リアルタイムデータの処理
履歴データの保管
IoT/センサー/
リアルタイムデータなど
ストリームデータ処理
リアルタイム
AP
通知、アラート
TCO増大
分析までに時
間がかかる
非効率
データ一貫性
保持に苦労
Spark登場後はかなりシンプルにはなったものの・・・?
業務システム BI/データ分析
Web/B2Cサービスなど
IoT/センサー/
リアルタイムデータなど
8
リアルタイム
AP
業務データの記録
大量データの記録、処理
リアルタイムデータの処理
データの可視化、分析
通知、アラート
SnappyDataならもっとシンプルなビッグデータ基盤を構築できる
業務システム BI/データ分析
Web/B2Cサービスなど
IoT/センサー/
リアルタイムデータなど
9
リアルタイム
AP
SnappyData業務データの記録
大量データの記録、処理
リアルタイムデータの処理
データの可視化、分析
通知、アラート
SnappyData=データベース機能を備えたSpark
10
Apache Spark+分散インメモリーDB+独自機能
• Apache Sparkとインメモリーデータベースを統合し、独自機能を付加している
• ベースとなる製品はインメモリー処理が得意なので相性が良い
11
分散インメモリー
データベース
独自付加機能
カラム型データベース
予測分析処理
ロー型データベース
トランザクション
分散処理
フレームワーク
バッチ処理
分析処理
ストリーム処理
SnappyData主要コンポーネント
• Sparkとインメモリーデータベースの機能の良いところをシームレスに統合
12
Micro-batch Streaming Spark Core
Transaction
Spark SQL Catalyst
OLTP Query OLAP Query
SynopsisData
Engine
P2P Cluster Management Replication/Partition
In-Memory Database
Sample/TopK
TableIndex
Row
Table
Column
Table
HDFS HDFS HDFS HDFS
Spark
独自実装
分散
インメモリーDB
分散
ファイルシステム
Stream
Table
Continuous
Query
SnappyDataの特徴
Part 2
Sparkプログラムを高速化する4つのキーワード
14
インメモリーデータベース
データ保持形式
クラスター統合
SparkSQLチューニング
1
2
3
4
Spark
特徴①:インメモリーデータベースにデータを保持している
• 処理対象のデータはすでにメモリー上に保持している
• ディスクへの読み書きが発生しない分、通常のSparkよりも処理時間が短い
15
Sparkプログラム Sparkプログラム
メモリー
メモリー
Spark+HDFSの場合 SnappyDataの場合
ディスク
Spark
インメモリーDBHDFS
特徴①:データアクセスのコード例
16
// SparkContextをラップしたSnappySessionを作成
val snappy = new org.apache.spark.sql.
SnappySession(spark.sparkContext)
// SQL、DataFrameを使用して新しいデータを作成
val filteredDf =
snappy.sql("SELECT * FROM SnappyTable WHERE …")
val newDf = filteredDf. ....
// 作成したデータを保存
newDf.write.insertInto("NewSnappyTable")
// データ読み込み
val df = spark.sqlContext.read.
format("com.databricks.spark.csv").
option("header", "true").load("hdfs://...")
df.createOrReplaceTempView("SparkTable")
// SparkSQL、DataFrameを使用して新しいデータを作成
val filteredDf =
spark.sql("SELECT * FROM SparkTable WHERE ...")
val newDf = filteredDf. ....
// 作成したデータを保存
newDf.write.
format("com.databricks.spark.csv").
option("header", "false").save("hdfs://...")
データ読み込み処理は不要
Spark+HDFSの場合 SnappyDataの場合
• データはインメモリーDB上にSparkと同じ形式で保持する
• データの取得・保存時にシリアライズや型変換が発生しないので速い
特徴②:Sparkと同一のデータ形式で保持している
17
DataFrame
Spark
データ取得/保存
HDFS/データストア
CSVファイル
Spark+HDFS/データストアの場合
Spark
DataFrame
インメモリーDB
データ取得/保存
型変換、シリアライズ/
デシリアライズは不要
SnappyDataの場合
型変換
シリアライズ/
デシリアライズ
特徴③:SparkとインメモリーDBのクラスターを統合できる
• Spark処理を行うクラスターとインメモリーDBのクラスターを1つのJVMに統合できる
• データの移動・コピーなしにインメモリーでデータ処理ができるため速い
18
SnappyData
Locator
Spark+インメモリーDB
クラスター
SnappyData
Leader
(Spark Driver)Spark Context
Unifiedクラスターモード
SnappyData DataServer
Spark Executor
DataFrame DataFrame
インメモリーDB
JVM
SnappyData DataServer
Spark Executor
DataFrame DataFrame
インメモリーDB
JVM
SnappyData DataServer
Spark Executor
DataFrame DataFrame
インメモリーDB
JVM
特徴③:もう一つのクラスターモード(参考)
• SparkクラスターとインメモリーDBクラスターを別にして個別にスケールアウトすることも可能
19
SnappyData
Locator
Sparkクラスター
SnappyData
Leader
(Spark Driver)Spark Context
Splitクラスターモード
SnappyData DataServer
Spark Executor
DataFrame DataFrame
インメモリーDB
JVM
SnappyData DataServer
Spark Executor
DataFrame DataFrame
インメモリーDB
JVM
SnappyData DataServer
Spark Executor
DataFrame DataFrame
インメモリーDB
JVM
JVM JVM JVM
インメモリーDB
クラスター
特徴④:SparkSQLを高速化している
• SnappyDataはSparkとは異なるDAGを生成する
20
SparkSQLの場合 SnappyDataの場合
独自のDAGを生成
さらにSparkSQLの一部のワー
クロードに手を加えることで処
理の高速化をはかっている
Scan
HashJoin
Aggregate
Snappy Dataの使い方
Part 3
クレジットカード不正使用検知システム
• クレジットカード取引情報をストリームデータとしてリアルタイムに収集し、不正な利用に対して
アラートをあげる
• SnappyDataで高速処理と大量データの蓄積を実現
22
APP
SnappyData
メッセージング
ミドルウェア
…etc
クレジットカード
使用履歴
リアルタイム通知等
カード取引情報
クレジットカード使用情報
ブラックリスト情報
ブラックリスト
情報
リジェクト
情報
ブラックリスト情報
カード取引情報
カード取引情報
・・・
インメモリーDB
• ストリームデータ、トランザクション、アナリティクスを全てSnappyDataで処理する
• データベースを内包している点、SQLで処理を記述できる点がポイント
SnappyDataを使った場合のアーキテクチャ
23
APP
SnappyData
メッセージング
ミドルウェア
インメモリーDB
トランザクション
処理
アナリティクス処理
ストリーム
データ処理
SQL
SQL
SQL
①ストリームデータ処理
24
APP
SnappyData
メッセージング
ミドルウェア
インメモリーDB
ストリーム
データ処理
SQL
• ストリームデータはテーブルへ書き込まれる
• SQLでストリームデータ処理を記述できる
Spark単体利用
との相違点
SnappyDataはSQLを使ってストリームデータ処理を書く
• ストリームデータをテーブル形式で保存するので、SQLを書くだけで処理を実装できる
25
TxId POS
Card
Number
Tx
Amount
Merchant
Code
Timestamp
1 111 123456789 ¥10,000 AA 2017/11/05 10:10:01
2 222 777777777 ¥3,980 AA 2017/11/05 10:10:20
3 111 197654532 ¥5,130 BB 2017/11/05 10:10:21
4 333 666666666 ¥323,456 AA 2017/11/05 10:11:05
5 111 888888888 ¥1,980 BB 2017/11/05 10:11:15
6 111 123456789 ¥23,456 AA 2017/11/05 10:11:16
ストリームテーブル
SELECT
*
FROM
CreditCardTx
WINDOW
(DURATION 10 SECONDS,
SLIDE 10 SECONDS)
WHERE
MerchantCode=‘AA';
処理内容(Continuous Query)
ストリームデータソース情報をテーブル定義で指定するだけ
26
ストリーミングデータソース
ストレージレベル(Spark設定)
CREATE STREAM TABLE CreditCardTx
(TxId long,
POS long,
CardNumber string,
TxAmount long
MerchantCode int,
Timestamp timestamp)
USING KAFKA_STREAM
OPTIONS
(storagelevel 'MEMORY_AND_DISK_SER_2',
rowConverter 'uls.snappy.KafkaToRowsConverter',
kafkaParams 'zookeeper.connect->localhost:2181;xx',
topics 'CreditCardTxStream');
KAFKA以外のストリーミングデータソース
 TWITTER_STREAM
 DIRECTKAFKA_STREAM
 RABBITMQ_STREAM
 SOCKET_STREAM
 FILE_STREAM
ストリームデータRow変換クラス
ストリーミングデータソース毎の設定
StreamToRowsConverterを実装してテーブル形式に変換する
27
class KafkaToRowsConverter extends StreamToRowsConverter with Serializable {
override def toRows(message: Any): Seq[Row] = {
val ccTx: CreditCardTx = message.asInstanceOf[CreditCardTx]
Seq(Row.fromSeq(Seq(ccTx.getTxId,
ccTx.getPos,
ccTx.getCardNumber,
ccTx.getTxAmount,
ccTx.getMerchantCode,
ccTx.getTimestamp)))
}
}
ストリームテーブル
1行分のデータ
SQLでストリームデータの処理を記述できる
• 処理の記述に使用するContinuous Queryは通常のSQLとほぼ同じ
• WINDOW関数で指定した間隔のデータを取得できる
28
SELECT
*
FROM
CreditCardTx
WINDOW
(DURATION 15 MINUTES,
SLIDE 10 SECONDS)
WHERE
MerchantCode=‘AA';
MerchantCodeが「AA」のデータを
10秒のスライドウィンドウで取得する
DURATION
15分
SLIDE
10秒
ContinuousQueryではWINDOWに含まれるデータのみ取得される
29
2 61 43
TxId POS
Card
Number
Tx
Amount
Merchant
Code
Timestamp
1 111 123456789 ¥10,000 AA 2017/11/05 10:10:01
2 222 777777777 ¥3,980 AA 2017/11/05 10:10:20
3 111 197654532 ¥5,130 BB 2017/11/05 10:10:21
2 61 43
2 61 43
5
5
5
TxId POS
Card
Number
Tx
Amount
Merchant
Code
Timestamp
3 111 197654532 ¥5,130 BB 2017/11/05 10:10:21
4 333 666666666 ¥323,456 AA 2017/11/05 10:11:05
TxId POS
Card
Number
Tx
Amount
Merchant
Code
Timestamp
4 333 666666666 ¥323,456 AA 2017/11/05 10:11:05
5 111 888888888 ¥1,980 BB 2017/11/05 10:11:15
6 111 123456789 ¥23,456 AA 2017/11/05 10:11:16
ストリームデータ処理のコード例
30
// ストリーム処理用のSnappyStreamingContextを作成
val snappy = new SnappyStreamingContext(sc, 10)
// Continuous Queryを登録
val creditCardTxStream : SchemaDStream = snappy.registerCQ(s"""
SELECT
TxId, POS, CardNumber, TxAmount, MerchantCode, Timestamp
FROM CreditCardTx
WINDOW
(DURATION 1 SECONDS, SLIDE 1 SECONDS)
WEHERE
MerchantCode='AA'
""")
// ストリームデータを処理
creditCardTxStream.foreachDataFrame(df => {
…
df.write.insertInto("CreditCardTxHistory")
…
})
②トランザクション処理
31
APP
SnappyData
メッセージング
ミドルウェア
インメモリーDB
トランザクション
処理
SQL
• DataFrameに対して追加、変更、削除はインメモリーDBへ反映される
• RDBと同等の機能を実現している
Spark単体利用
との相違点
データの追加、更新、削除が可能
• 新しいデータセットを作成する際に全データを再作成する必要がない
32
ccBlackListStream.foreachRDD(rdd => {
val streamDS = rdd.toDS()
// CreditCardBlacklistより削除
streamDS.where("ACTION = 'DELETE'").write.deleteFrom("CreditCardBlacklist")
// CreditCardBlacklistへ追加・更新
streamDS.where("ACTION = 'INSERT'").write.putInto("CreditCardBlacklist")
})
creditCardTxStream.foreachRDD(rdd => {
val streamDS = rdd.toDS()
// blacklist tableのDataFrame作成
val ccBlackList = snappy.table("CreditCardBlacklist")
// JOINしたものをリジェクトトランザクションテーブルへ登録
val blackListedTxns = streamDS.join(ccBlackList, $"CardNumber" === $"CardNumber", "leftsemi")
val failedTx = blackListedTxns.select("TxId", "POS", "CardNumber", "MerchantCode", "Timestamp")
failedTx.write.insertInto("RejectedCardTx")
})
SnappySessionを使用し
通常のSQLで追加、更新、
削除することも可能
データの特性によってテーブル形式を使い分けることも可能
• マスターデータ・トランザクションデータではローテーブル、分析データではカラムテーブルを使用
33
頻繁に追加、更新を行うデータ
特定条件で検索するデータ
特定のカラムで集計やグループ化を行うデータ
ローテーブル(マスターデータ/トランザクションデータ向き) カラムテーブル(集計・分析データ向き)
TxId POS
Card
Number
Tx
Amount
Merchant
Code
…
1 111 123456789 ¥10,000 AA
2 222 777777777 ¥3,980 AA
3 111 197654532 ¥5,130 BB
4 333 666666666 ¥323,456 AA
…
6 111 123456789 ¥23,456 AA
Card
Number
Card
Type
Expiration
Date
…
999999999 1 2020/12
876543210 1 2019/04
213757211 2 2020/02
555444777 1 2018/08
987654321 2 2022/09
CREATE TABLE CreditCardBlacklist
(CardNumber CHAR(16) NOT NULL PRIMARY KEY,
CardType CHAR(1) NOT NULL,
ExpirationDate DATE NOT NULL,
… CHAR(3) ,
… CHAR(1) ,
… DATE ,
… DECIMAL(9,2))
USING ROW
OPTIONS
(PARTITION_BY 'EMPNO',
COLOCATE_WITH 'DEPT',
REDUNDANCY '1',
EVICTION_BY 'LRUMEMSIZE 10240',
OVERFLOW 'true',
DISKSTORE 'LOCALSTORE',
PERSISTENCE 'ASYNC',
EXPIRE '86400');
CREATE TABLE CreditCardTxHistory
(TxId BIGINT ,
POS CHAR(2) ,
CardNumber CHAR(16) ,
TxAmount DECIMAL(15,2) ,
MerchantCode CHAR(2) ,
… DATE ,
… DECIMAL(9,2))
USING COLUMN
OPTIONS
(PARTITION_BY 'EMPNO',
COLOCATE_WITH 'DEPT',
REDUNDANCY '1',
EVICTION_BY 'LRUMEMSIZE 10240',
OVERFLOW 'true',
DISKSTORE 'LOCALSTORE',
PERSISTENCE 'ASYNC');
RDBと大差ないDDLでテーブルを作成できる
• 分散インメモリーデータベースであるため、データ分散や永続化の設定が追加で必要
34
データベースエンジン データベースエンジン
データ分散設定 データ分散設定
永続化設定 永続化設定
Expireオプション
ローテーブル カラムテーブル
レプリケーション/パーティションを使い分ける
• ブロードキャスト変数の代わりにレプリケーション、RDDの代わりにパーティションの使用が可能
35
レプリケーション(マスターデータ向き) パーティション(トランザクションデータ向き)
ノードA
ノードC
ノードB
ノードD
データ A データ B
データ C データ D
データ A データ B
データ C データ D
データ A データ B
データ C データ D
データ A データ B
データ C データ D
ノードA
ノードC
ノードB
ノードD
データ A
データ D
データ B
データ C
データ A データ B
データ C データ D
複数ノードで
データを分散保持
全ノードで
同一データを保持
主
主
主
主
トランザクション処理もRDBと同様に使用可能
• ローテーブルでは、RDBと同等レベルの分散トランザクションが利用可能
• ただし、従来のRDBとは挙動が異なる部分もある
36
READ UNCOMMITTED ×
READ COMMITTED ○
REPEATABLE READ ○
SERIALIZABLE ×
サポートされるトランザクショ
ン分離レベル
SELECT FOR UPDATE
トランザクション中にデータが更新された場合、COMMIT時にコンフリクト例外が発生
する
COMMIT/ROLLBACK
トランザクション中にクラスタメンバーがダウンした場合、COMMITが失敗したという例
外が発生する
LOCK TABLE サポートされない
Cascade DELETE サポートされない
P2P型アーキテクチャー
• マスターレスのため、データの参照だけでなく、更新処理もスケールアウトが可能
37
スレーブ
マスター
クライアント
スレーブ スレーブ ノード
ノード
クライアント
ノード
ノード
マスター・スレーブ型 P2P型
③アナリティクス処理
38
APP
SnappyData
メッセージング
ミドルウェア
インメモリーDB
アナリティクス処理
SQL
• SparkSQLの内部に手を加えて高速化している
• 近似クエリ、TOP Kテーブルが使える
Spark単体利用
との相違点
SnappyDataはSparkSQLより10~20倍速い
• カラムテーブルならSparkSQLの約10~20倍高速に分析可能
39
よりリアルタイムな分析を可能にする独自機能を実装
• リアルタイムアナリティクスでは、1回のクエリーに何十秒も待っていられない
• 精度を抑える代わりに、高速なクエリ処理を可能にする「Synopsis Data Engine」を実装
40
近似クエリ
TOP Kテーブル
サンプリングしたデータに対してクエリを実行する
Min/Maxなど外れ値の検出に必要なデータを取得する
サンプリング技法を活用することでクエリー時間をさらに短縮
• データの平均や割合を出すのであれば、サンプリングが有効
• サンプリングしたデータを分析することで、通常のクエリーに比べて100分の1~10分の1にクエ
リー時間を短縮可能
41
¥182,531
¥132,712
¥79,521
¥12,903
¥0
¥20,000
¥40,000
¥60,000
¥80,000
¥100,000
¥120,000
¥140,000
¥160,000
¥180,000
¥200,000
111 222 333 444
POS
平均利用額
¥182,294
¥132,801
¥79,582
¥12,912
¥0
¥20,000
¥40,000
¥60,000
¥80,000
¥100,000
¥120,000
¥140,000
¥160,000
¥180,000
¥200,000
111 222 333 444
POS
平均利用額(サンプリング)
サンプリング
処理時間
10秒
処理時間
1.2秒
サンプリングの精度とクエリーのパフォーマンスを比較すると・・・
42
項目 標準SQL ケース1 ケース2 ケース3 ケース4 ケース5
誤差 - 0.20 0.05 0.20 0.30 0.20
信頼度 - 0.70 0.95 0.80 0.80 0.90
クエリー処理時間 10.0秒 1.2秒 1.4秒 1.3秒 1.2秒 1.1秒
0
2
4
6
8
10
12
クエリー処理時間
標準SQL ケース1
誤差:0.2
信頼度:0.7
ケース2
誤差:0.05
信頼度:0.95
ケース3
誤差:0.2
信頼度:0.8
ケース4
誤差:0.3
信頼度:0.8
ケース5
誤差:0.2
信頼度:0.9
サンプルテーブルを作る方法と直接クエリーする方法がある
• 一般的なDDL、SQLにサンプリングのための情報を指定する
43
CREATE SAMPLE TABLE CreditCardTxHistorySample
ON CreditCardTxHistory
OPTIONS(
qcs 'POS, Year, Month',
fraction '0.03')
AS (SELECT * FROM CreditCardHistory)
SELECT
POS,
AVG(TxAmount)
FROM
CreditCardTxHistory
GROUP BY
POS
ORDER BY
POS
WITH ERROR 0.10 CONFIDENCE 0.95
サンプルテーブル Approximate Query
TOP Kテーブル
• Max/Minのデータ検索ではTOPKテーブルを使用する
• 外れ値検出等で有効活用できる
44
CREATE TOPK TABLE MostUsedCreditCard
on CreditCardTxStream
OPTIONS (
key 'CardNumber',
timeInterval '60000ms’,
size '50’
frequencyCol 'TxAmount',
timeSeriesColumn 'Timestamp‘
)
1分間隔で利用金額の多い上位50件を収集する場合
CardNumber TxAmount …
666666666 ¥1,2345,678 …
197654532 ¥10,000,000 …
197654532 ¥5,048,600 …
・・・ ・・・ …
TOP Kテーブル
BIツールからのSnappyDataアクセス
• TableauやApache Zeppelinからも接続が可能
45
アプリケーションからのSnappyDataアクセス
• SnappyDataへ接続する場合は、一般的なJDBC/ODBC/ADO.NETプログラミングスタイルで
アクセスすることが可能
46
// SnappyData接続
val conn = DriverManager.getConnection("jdbc:snappydata://localhost:1527/")
// データ登録(Insert)
val psInsert = conn.
prepareStatement("INSERT INTO CreditCardBlacklist VALUES(?, ?, ?, ?, …)")
psInsert.setString(1, "1000200030004000")
psInsert.setBigDecimal(2, java.math.BigDecimal.valueOf(100.2))
…
psInsert.execute()
// データ取得(Select)
val psSelect = conn.prepareStatement(“SELECT * FROM CreditCardBlacklist WHERE CardNumber=?")
psSelect.setString(1, "1000200030004000")
ResultSet rs = psSelect.query()
// 切断
conn.close()
Snappy Dataサマリー
Part 4
SnappyDataサマリー
48
Spark100%コンパチブル
SparkとインメモリーDBが統合されシンプル
テーブルとSQLを中心として統一された処理
高速化のための工夫がたくさん
お問合せ先
mailto: info@ulsystems.co.jp
http://www.ulsystems.co.jp
49

More Related Content

Viewers also liked

はじめての Cloud Foundry: .NET アプリケーションのはじめ方
はじめての Cloud Foundry: .NET アプリケーションのはじめ方はじめての Cloud Foundry: .NET アプリケーションのはじめ方
はじめての Cloud Foundry: .NET アプリケーションのはじめ方Akihiro Kitada
 
Reactor によるデータインジェスチョン
Reactor によるデータインジェスチョンReactor によるデータインジェスチョン
Reactor によるデータインジェスチョンAkihiro Kitada
 
〜Apache Geode 入門 gfsh によるクラスター構築・管理
〜Apache Geode 入門 gfsh によるクラスター構築・管理〜Apache Geode 入門 gfsh によるクラスター構築・管理
〜Apache Geode 入門 gfsh によるクラスター構築・管理Akihiro Kitada
 
Apache Geode で始める Spring Data Gemfire
Apache Geode で始めるSpring Data GemfireApache Geode で始めるSpring Data Gemfire
Apache Geode で始める Spring Data GemfireAkihiro Kitada
 
【古いスライド】〜僕の初めてのリアクティブプログラミング Reactor を使ってリアクティブに昇龍拳を繰り出してみた!
【古いスライド】〜僕の初めてのリアクティブプログラミング Reactor を使ってリアクティブに昇龍拳を繰り出してみた!【古いスライド】〜僕の初めてのリアクティブプログラミング Reactor を使ってリアクティブに昇龍拳を繰り出してみた!
【古いスライド】〜僕の初めてのリアクティブプログラミング Reactor を使ってリアクティブに昇龍拳を繰り出してみた!Akihiro Kitada
 
インメモリーで超高速処理を実現する場合のカギ
インメモリーで超高速処理を実現する場合のカギインメモリーで超高速処理を実現する場合のカギ
インメモリーで超高速処理を実現する場合のカギMasaki Yamakawa
 
Java9を迎えた今こそ!Java本格(再)入門
Java9を迎えた今こそ!Java本格(再)入門Java9を迎えた今こそ!Java本格(再)入門
Java9を迎えた今こそ!Java本格(再)入門Takuya Okada
 
Dockerで始める Java EE アプリケーション開発 for JJUG CCC 2017
Dockerで始める Java EE アプリケーション開発 for JJUG CCC 2017Dockerで始める Java EE アプリケーション開発 for JJUG CCC 2017
Dockerで始める Java EE アプリケーション開発 for JJUG CCC 2017Kohei Saito
 
JJUG初心者のためのJava/JJUG講座
JJUG初心者のためのJava/JJUG講座JJUG初心者のためのJava/JJUG講座
JJUG初心者のためのJava/JJUG講座Yusuke Suzuki
 
Spring Bootの本当の理解ポイント #jjug
Spring Bootの本当の理解ポイント #jjugSpring Bootの本当の理解ポイント #jjug
Spring Bootの本当の理解ポイント #jjugMasatoshi Tada
 

Viewers also liked (10)

はじめての Cloud Foundry: .NET アプリケーションのはじめ方
はじめての Cloud Foundry: .NET アプリケーションのはじめ方はじめての Cloud Foundry: .NET アプリケーションのはじめ方
はじめての Cloud Foundry: .NET アプリケーションのはじめ方
 
Reactor によるデータインジェスチョン
Reactor によるデータインジェスチョンReactor によるデータインジェスチョン
Reactor によるデータインジェスチョン
 
〜Apache Geode 入門 gfsh によるクラスター構築・管理
〜Apache Geode 入門 gfsh によるクラスター構築・管理〜Apache Geode 入門 gfsh によるクラスター構築・管理
〜Apache Geode 入門 gfsh によるクラスター構築・管理
 
Apache Geode で始める Spring Data Gemfire
Apache Geode で始めるSpring Data GemfireApache Geode で始めるSpring Data Gemfire
Apache Geode で始める Spring Data Gemfire
 
【古いスライド】〜僕の初めてのリアクティブプログラミング Reactor を使ってリアクティブに昇龍拳を繰り出してみた!
【古いスライド】〜僕の初めてのリアクティブプログラミング Reactor を使ってリアクティブに昇龍拳を繰り出してみた!【古いスライド】〜僕の初めてのリアクティブプログラミング Reactor を使ってリアクティブに昇龍拳を繰り出してみた!
【古いスライド】〜僕の初めてのリアクティブプログラミング Reactor を使ってリアクティブに昇龍拳を繰り出してみた!
 
インメモリーで超高速処理を実現する場合のカギ
インメモリーで超高速処理を実現する場合のカギインメモリーで超高速処理を実現する場合のカギ
インメモリーで超高速処理を実現する場合のカギ
 
Java9を迎えた今こそ!Java本格(再)入門
Java9を迎えた今こそ!Java本格(再)入門Java9を迎えた今こそ!Java本格(再)入門
Java9を迎えた今こそ!Java本格(再)入門
 
Dockerで始める Java EE アプリケーション開発 for JJUG CCC 2017
Dockerで始める Java EE アプリケーション開発 for JJUG CCC 2017Dockerで始める Java EE アプリケーション開発 for JJUG CCC 2017
Dockerで始める Java EE アプリケーション開発 for JJUG CCC 2017
 
JJUG初心者のためのJava/JJUG講座
JJUG初心者のためのJava/JJUG講座JJUG初心者のためのJava/JJUG講座
JJUG初心者のためのJava/JJUG講座
 
Spring Bootの本当の理解ポイント #jjug
Spring Bootの本当の理解ポイント #jjugSpring Bootの本当の理解ポイント #jjug
Spring Bootの本当の理解ポイント #jjug
 

Similar to 20171118 jjug snappydata

Big data解析ビジネス
Big data解析ビジネスBig data解析ビジネス
Big data解析ビジネスMie Mori
 
ビジネス活用事例で学ぶデータサイエンス入門 #6
ビジネス活用事例で学ぶデータサイエンス入門 #6ビジネス活用事例で学ぶデータサイエンス入門 #6
ビジネス活用事例で学ぶデータサイエンス入門 #6you shimajiro
 
【講演資料】ビッグデータ時代の経営を支えるビジネスアナリティクスソリューション
【講演資料】ビッグデータ時代の経営を支えるビジネスアナリティクスソリューション【講演資料】ビッグデータ時代の経営を支えるビジネスアナリティクスソリューション
【講演資料】ビッグデータ時代の経営を支えるビジネスアナリティクスソリューションDell TechCenter Japan
 
郡山 Connect 2022 ハッカソン 基調講演 - Hackathon からサービスインになったらデータを扱いましょう
郡山 Connect 2022 ハッカソン 基調講演 - Hackathon からサービスインになったらデータを扱いましょう郡山 Connect 2022 ハッカソン 基調講演 - Hackathon からサービスインになったらデータを扱いましょう
郡山 Connect 2022 ハッカソン 基調講演 - Hackathon からサービスインになったらデータを扱いましょうDaiyu Hatakeyama
 
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装de:code 2017
 
トレジャーデータ新サービス発表 2013/12/9
トレジャーデータ新サービス発表 2013/12/9トレジャーデータ新サービス発表 2013/12/9
トレジャーデータ新サービス発表 2013/12/9Treasure Data, Inc.
 
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」Kazuki Taniguchi
 
20191115-PGconf.Japan
20191115-PGconf.Japan20191115-PGconf.Japan
20191115-PGconf.JapanKohei KaiGai
 
MongoDBを用いたソーシャルアプリのログ解析 〜解析基盤構築からフロントUIまで、MongoDBを最大限に活用する〜
MongoDBを用いたソーシャルアプリのログ解析 〜解析基盤構築からフロントUIまで、MongoDBを最大限に活用する〜MongoDBを用いたソーシャルアプリのログ解析 〜解析基盤構築からフロントUIまで、MongoDBを最大限に活用する〜
MongoDBを用いたソーシャルアプリのログ解析 〜解析基盤構築からフロントUIまで、MongoDBを最大限に活用する〜Takahiro Inoue
 
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜griddb
 
[db tech showcase Tokyo 2017] D35: 何を基準に選定すべきなのか!? ~ビッグデータ×IoT×AI時代のデータベースのアー...
[db tech showcase Tokyo 2017] D35: 何を基準に選定すべきなのか!? ~ビッグデータ×IoT×AI時代のデータベースのアー...[db tech showcase Tokyo 2017] D35: 何を基準に選定すべきなのか!? ~ビッグデータ×IoT×AI時代のデータベースのアー...
[db tech showcase Tokyo 2017] D35: 何を基準に選定すべきなのか!? ~ビッグデータ×IoT×AI時代のデータベースのアー...Insight Technology, Inc.
 
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro YokoyamaInsight Technology, Inc.
 
Pysparkで始めるデータ分析
Pysparkで始めるデータ分析Pysparkで始めるデータ分析
Pysparkで始めるデータ分析Tanaka Yuichi
 
[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data Platform[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data PlatformNaoki (Neo) SATO
 
Snowflake Architecture and Performance(db tech showcase Tokyo 2018)
Snowflake Architecture and Performance(db tech showcase Tokyo 2018)Snowflake Architecture and Performance(db tech showcase Tokyo 2018)
Snowflake Architecture and Performance(db tech showcase Tokyo 2018)Mineaki Motohashi
 
Treasure Data Intro for Data Enthusiast!!
Treasure Data Intro for Data Enthusiast!!Treasure Data Intro for Data Enthusiast!!
Treasure Data Intro for Data Enthusiast!!Takahiro Inoue
 
[db tech showcase Tokyo 2017] E24: 流行りに乗っていれば幸せになれますか?数あるデータベースの中から敢えて今Db2が選ば...
[db tech showcase Tokyo 2017] E24: 流行りに乗っていれば幸せになれますか?数あるデータベースの中から敢えて今Db2が選ば...[db tech showcase Tokyo 2017] E24: 流行りに乗っていれば幸せになれますか?数あるデータベースの中から敢えて今Db2が選ば...
[db tech showcase Tokyo 2017] E24: 流行りに乗っていれば幸せになれますか?数あるデータベースの中から敢えて今Db2が選ば...Insight Technology, Inc.
 
081108huge_data.ppt
081108huge_data.ppt081108huge_data.ppt
081108huge_data.pptNaoya Ito
 
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜griddb
 
[db tech showcase Tokyo 2018] #dbts2018 #A22 『最高のデータプラットフォームを、最短でつくる方法』
[db tech showcase Tokyo 2018] #dbts2018 #A22 『最高のデータプラットフォームを、最短でつくる方法』[db tech showcase Tokyo 2018] #dbts2018 #A22 『最高のデータプラットフォームを、最短でつくる方法』
[db tech showcase Tokyo 2018] #dbts2018 #A22 『最高のデータプラットフォームを、最短でつくる方法』Insight Technology, Inc.
 

Similar to 20171118 jjug snappydata (20)

Big data解析ビジネス
Big data解析ビジネスBig data解析ビジネス
Big data解析ビジネス
 
ビジネス活用事例で学ぶデータサイエンス入門 #6
ビジネス活用事例で学ぶデータサイエンス入門 #6ビジネス活用事例で学ぶデータサイエンス入門 #6
ビジネス活用事例で学ぶデータサイエンス入門 #6
 
【講演資料】ビッグデータ時代の経営を支えるビジネスアナリティクスソリューション
【講演資料】ビッグデータ時代の経営を支えるビジネスアナリティクスソリューション【講演資料】ビッグデータ時代の経営を支えるビジネスアナリティクスソリューション
【講演資料】ビッグデータ時代の経営を支えるビジネスアナリティクスソリューション
 
郡山 Connect 2022 ハッカソン 基調講演 - Hackathon からサービスインになったらデータを扱いましょう
郡山 Connect 2022 ハッカソン 基調講演 - Hackathon からサービスインになったらデータを扱いましょう郡山 Connect 2022 ハッカソン 基調講演 - Hackathon からサービスインになったらデータを扱いましょう
郡山 Connect 2022 ハッカソン 基調講演 - Hackathon からサービスインになったらデータを扱いましょう
 
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
 
トレジャーデータ新サービス発表 2013/12/9
トレジャーデータ新サービス発表 2013/12/9トレジャーデータ新サービス発表 2013/12/9
トレジャーデータ新サービス発表 2013/12/9
 
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
QConTokyo2015「Sparkを用いたビッグデータ解析 〜後編〜」
 
20191115-PGconf.Japan
20191115-PGconf.Japan20191115-PGconf.Japan
20191115-PGconf.Japan
 
MongoDBを用いたソーシャルアプリのログ解析 〜解析基盤構築からフロントUIまで、MongoDBを最大限に活用する〜
MongoDBを用いたソーシャルアプリのログ解析 〜解析基盤構築からフロントUIまで、MongoDBを最大限に活用する〜MongoDBを用いたソーシャルアプリのログ解析 〜解析基盤構築からフロントUIまで、MongoDBを最大限に活用する〜
MongoDBを用いたソーシャルアプリのログ解析 〜解析基盤構築からフロントUIまで、MongoDBを最大限に活用する〜
 
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
 
[db tech showcase Tokyo 2017] D35: 何を基準に選定すべきなのか!? ~ビッグデータ×IoT×AI時代のデータベースのアー...
[db tech showcase Tokyo 2017] D35: 何を基準に選定すべきなのか!? ~ビッグデータ×IoT×AI時代のデータベースのアー...[db tech showcase Tokyo 2017] D35: 何を基準に選定すべきなのか!? ~ビッグデータ×IoT×AI時代のデータベースのアー...
[db tech showcase Tokyo 2017] D35: 何を基準に選定すべきなのか!? ~ビッグデータ×IoT×AI時代のデータベースのアー...
 
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
[C23] 「今」を分析するストリームデータ処理技術とその可能性 by Takahiro Yokoyama
 
Pysparkで始めるデータ分析
Pysparkで始めるデータ分析Pysparkで始めるデータ分析
Pysparkで始めるデータ分析
 
[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data Platform[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data Platform
 
Snowflake Architecture and Performance(db tech showcase Tokyo 2018)
Snowflake Architecture and Performance(db tech showcase Tokyo 2018)Snowflake Architecture and Performance(db tech showcase Tokyo 2018)
Snowflake Architecture and Performance(db tech showcase Tokyo 2018)
 
Treasure Data Intro for Data Enthusiast!!
Treasure Data Intro for Data Enthusiast!!Treasure Data Intro for Data Enthusiast!!
Treasure Data Intro for Data Enthusiast!!
 
[db tech showcase Tokyo 2017] E24: 流行りに乗っていれば幸せになれますか?数あるデータベースの中から敢えて今Db2が選ば...
[db tech showcase Tokyo 2017] E24: 流行りに乗っていれば幸せになれますか?数あるデータベースの中から敢えて今Db2が選ば...[db tech showcase Tokyo 2017] E24: 流行りに乗っていれば幸せになれますか?数あるデータベースの中から敢えて今Db2が選ば...
[db tech showcase Tokyo 2017] E24: 流行りに乗っていれば幸せになれますか?数あるデータベースの中から敢えて今Db2が選ば...
 
081108huge_data.ppt
081108huge_data.ppt081108huge_data.ppt
081108huge_data.ppt
 
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
何を基準に選定すべきなのか!? 〜ビッグデータ×IoT×AI時代のデータベースのアーキテクチャとメカニズムの比較〜
 
[db tech showcase Tokyo 2018] #dbts2018 #A22 『最高のデータプラットフォームを、最短でつくる方法』
[db tech showcase Tokyo 2018] #dbts2018 #A22 『最高のデータプラットフォームを、最短でつくる方法』[db tech showcase Tokyo 2018] #dbts2018 #A22 『最高のデータプラットフォームを、最短でつくる方法』
[db tech showcase Tokyo 2018] #dbts2018 #A22 『最高のデータプラットフォームを、最短でつくる方法』
 

More from Masaki Yamakawa

20231111_YugabyteDB-on-k8s.pdf
20231111_YugabyteDB-on-k8s.pdf20231111_YugabyteDB-on-k8s.pdf
20231111_YugabyteDB-on-k8s.pdfMasaki Yamakawa
 
20221117_クラウドネイティブ向けYugabyteDB活用シナリオ
20221117_クラウドネイティブ向けYugabyteDB活用シナリオ20221117_クラウドネイティブ向けYugabyteDB活用シナリオ
20221117_クラウドネイティブ向けYugabyteDB活用シナリオMasaki Yamakawa
 
20211118 dbts2021 マイクロサービスにおけるApache Geodeの効果的な使い方
20211118 dbts2021 マイクロサービスにおけるApache Geodeの効果的な使い方20211118 dbts2021 マイクロサービスにおけるApache Geodeの効果的な使い方
20211118 dbts2021 マイクロサービスにおけるApache Geodeの効果的な使い方Masaki Yamakawa
 
20190523 IMC meetup-IMDG&DS
20190523 IMC meetup-IMDG&DS20190523 IMC meetup-IMDG&DS
20190523 IMC meetup-IMDG&DSMasaki Yamakawa
 
20181031 springfest spring data geode
20181031 springfest spring data geode20181031 springfest spring data geode
20181031 springfest spring data geodeMasaki Yamakawa
 
20180217 hackertackle geode
20180217 hackertackle geode20180217 hackertackle geode
20180217 hackertackle geodeMasaki Yamakawa
 
インメモリーデータグリッドの選択肢
インメモリーデータグリッドの選択肢インメモリーデータグリッドの選択肢
インメモリーデータグリッドの選択肢Masaki Yamakawa
 
超高速処理とスケーラビリティを両立するApache GEODE
超高速処理とスケーラビリティを両立するApache GEODE超高速処理とスケーラビリティを両立するApache GEODE
超高速処理とスケーラビリティを両立するApache GEODEMasaki Yamakawa
 

More from Masaki Yamakawa (9)

20231111_YugabyteDB-on-k8s.pdf
20231111_YugabyteDB-on-k8s.pdf20231111_YugabyteDB-on-k8s.pdf
20231111_YugabyteDB-on-k8s.pdf
 
20221117_クラウドネイティブ向けYugabyteDB活用シナリオ
20221117_クラウドネイティブ向けYugabyteDB活用シナリオ20221117_クラウドネイティブ向けYugabyteDB活用シナリオ
20221117_クラウドネイティブ向けYugabyteDB活用シナリオ
 
20211118 dbts2021 マイクロサービスにおけるApache Geodeの効果的な使い方
20211118 dbts2021 マイクロサービスにおけるApache Geodeの効果的な使い方20211118 dbts2021 マイクロサービスにおけるApache Geodeの効果的な使い方
20211118 dbts2021 マイクロサービスにおけるApache Geodeの効果的な使い方
 
20190523 IMC meetup-IMDG&DS
20190523 IMC meetup-IMDG&DS20190523 IMC meetup-IMDG&DS
20190523 IMC meetup-IMDG&DS
 
20181031 springfest spring data geode
20181031 springfest spring data geode20181031 springfest spring data geode
20181031 springfest spring data geode
 
Apache geode at-s1p
Apache geode at-s1pApache geode at-s1p
Apache geode at-s1p
 
20180217 hackertackle geode
20180217 hackertackle geode20180217 hackertackle geode
20180217 hackertackle geode
 
インメモリーデータグリッドの選択肢
インメモリーデータグリッドの選択肢インメモリーデータグリッドの選択肢
インメモリーデータグリッドの選択肢
 
超高速処理とスケーラビリティを両立するApache GEODE
超高速処理とスケーラビリティを両立するApache GEODE超高速処理とスケーラビリティを両立するApache GEODE
超高速処理とスケーラビリティを両立するApache GEODE
 

Recently uploaded

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 

Recently uploaded (11)

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 

20171118 jjug snappydata