Qlikデータ統合製品によるリアルタイム
分析とDWH/データレイク自動化
- Qlik ReplicateとQlik Composeのご紹介
2020/09/08
クリックテック・ジャパン株式会社
2
TECH TALKとは?
Qlikの製品や機能の中から
特定のテーマを取り上げて、
技術的な情報を発信していくセミナーです。
https://techplay.jp/community/qlik
3
• Qlik製品のポートフォリオ
• Qlik Replicate
• Qlik Compose for Data Warehouses
• Qlik Compose for Data Lakes
• サポート情報
• その他の情報
アジェンダ
4
Qlikの製品ポートフォリオ
5
データソース
メインフレーム
アプリ
ファイルRDBMS
データウェアハウス
SaaS
データレイク
データウェアハウス
Azure
SQL DW
Amazon
Redshift
Qlik Enterprise Manager
Qlik Compose for
Data Warehouses
Qlik Compose for
Data Lakes
Qlik
Replicate
ダッシュボード
セルフサービスBI
定型帳票
分析ユーザー
データサイエンティスト
モバイルアナリティクス
アラート
組込みアナリティクス
アドバンスドアナリティクス
Qlik
Sense
Qlik NPrinting
Qlik Alerting
Qlikが提供するデータ統合・データ分析のポートフォリオ
6
Qlikプラットフォームの優位点
リアルタイム
バッチの呪縛からの脱却、鮮度の高いデータ
でタイムリーに意思決定が可能に
1
データ統合
エージェントレス
ソースシステムに手を入れたり、負荷を掛けず、
システム的な影響度を最低限に
2
DWH/データレイクの自動化
ベストプラクティスやメソドロジーに基づいた設
計、コード(SQL, HiveQL, Spark)の自動
生成を行い、分析に利用可能なデータへ
3
連想インデクシング+拡張知能=AI2
思考の流れに従った分析を、マシン・インテリジェン
スの力を借りて
1
幅広い分析ユースケースに対応
セルフサービスBI、ダッシュボード、定型帳票、モバ
イル分析、組込み分析などをサポート
2
アジャイルBI
データ準備~分析までを一気通貫でサポートし、
俊敏かつ柔軟なBI環境を提供
3
データ分析
7
Qlik Replicate
クリック操作で変更データキャプチャー(CDC)のタスクを作成・実行
Qlik Replicate – 直感的なユーザーインターフェイス
直感的で使いやすい Web ベースの
インターフェイス
レプリケーション・タスクの構成、実行、
監視が簡単
ソースからターゲットへの単一の
インターフェイス
企業全体のデータ・フローを容易に
一元管理
9
Qlik Replicate
Qlik
Replicate
メインフレームファイル
データウェアハウス
RDBMSHadoop
メインフレームファイル
データウェアハウス
RDBMSHadoop
変更データキャプチャー
(CDC)
変更適用
バッチ バッチ
クラウドクラウド
オンプレミス オンプレミス
永続ストア
• リアルタイム:インメモリで高速にデータを転送。
• エージェントレス:データソースにエージェントの導入不要。データソースへの負荷の影響も最小限。
• 異種システム間のデータ転送:メインフレームやSAPを含む多種のデータソースをサポート。
対応OS(64bit)
• Linux Red Hat 6.x and 7.x
• CentOSなど他Distもサポート
• Windows Server 2008 R2
above
推奨H/Wスペック
 CPU : Quad core ~8core↑
 Memory : 8GB~64GB↑
 Disk : 320GB~500GB
 Network : 1Gbps~
10Gbps×2
10
Qlik Replicateの代表的なユースケース
基幹系のユースケース 分析系のユースケース
異種システム間のデータ移行 基幹系システムのデータを分析系システムに
リアルタイムで連携
✓ 停止時間を最小化してDBを移行、システム更改への対応
✓ 商用データベースをOSSデータベースへ移行
✓ オンプレ環境からクラウド環境への基幹系データを移行
✓ データレイク/DWHのバッチデータ更新をリアルタイム化
✓ クラウド系データレイク/DWHへ基幹系システムのデータ同期
✓ メインフレームのデータをオープン系システムに同期・活用
✓ グローバル拠点への分析データの配信・収集
Qlik
Replicate
Qlik
Replicate
変更データの同期旧DB 新DB
切り替え
メインフレームファイル
SAP
RDBMSHadoop
リアルタイムデータ更新
クラウド系データレイク/DWH
オンプレミスデータレイク/DWH
11
大手ITベンダーへのOEM提供
Trusted by Microsoft with
3 OEMs, bundled inside
SQL Server
Trusted by Amazon
(AWS) with strategic
partnership for cloud
database migration
Trusted by IBM and
Oracle with
respective OEMs of
Attunity technology
Trusted by Teradata
and HP as resellers
for data warehouse
and analytics
Trusted by
global system
integrators
Trusted by over
2000 customers for
commitment, flexibility
and speed
2000+
Trusted by SAP as
certified solution in use
with over 200 SAP
customers
Trusted by big data
leaders for data
lake solutions
Trusted by IBM and
Oracle with
respective OEMs
Trusted by Teradata
and HP as resellers
for data warehouse
and analytics
評価と実績により裏打ちされた製品・技術
ターゲットのスキーマ作成
SAP
RDBMS
EDW
FILE
MAINFRAME
異種システム間での
データ型マッピング
バッチ/CDCトランジション
DDL変更伝搬
フィルタリング
データ変換
RDBMS
EDW
FILES
STREAMING
REPLICATE
Qlik Replicate – ハイレベル アーキテクチャ
DATA LAKE
Qlik Replicate
13
ソースDB ターゲット DB
Change
Data
Capture
トランザクションログ
EMP
DEPT
SALGRADE
EMP
DEPT
SALGRADE
Change
Data
Apply
Logical Replicationの仕組み
INSERT
UPDATE
DELETE
初期同期
(COPY)
14
Oracle
ソースDB
REDOログ
アーキテクチャダイアグラム
Oracleソース→Hadoop ターゲットの例
Hadoop
ターゲット
Qlik Replicate
ソーターストリーム
タスクマネージャー メタデータマネージャー
ストリーム
テーブルマネージャー
ターゲット
適用
フィルタ
変換
ソース
キャプチャー
HDFS
ファイル
ファクトリー
HIVE
ODBC
REST
フルロード ターゲット
ロード
ソース
アンロード
テーブル
アーカイブログ
Oracleクライアント
Archive Log: ON
Supplemental Logging: ON
• Binary Reader (Oracle API経由)
もしくは
• LogMiner (OracleのLogMinerの仕組みを利用)
15
変更データキャプチャータスクのオプション
• [Full Load]:全てのデータを初期ロード
• [Apply Changes]:初期ロード完了後、ソースに対する変更キャプ
チャーしてターゲットに適用
• [Store Changes]: 適用された変更の履歴を保存(「テーブル名_ct」
の名称のテーブルに履歴を保存)
以下のタスクオプションをそれぞれ有効化・無効化が可能
16
変更適用のモード
• [バッチ最適化]
✓ 変更を一括(変更のグループ)で適用することで、
似たような変更をまとめて適用
✓ シーケンシャルな整合性よりもパフォーマンスを優先
• [トランザクショナル]
✓ ソースに適用されたのと同じ順序でデータの更新分
をコピー
✓ パフォーマンスよりもシーケンシャルな整合性を優先
• [ストリーム最適化]
✓ メッセージストリーム (Kafka、Amazon Kinesis
など) の更新を複製
以下から変更適用のモードを選択可能
17
Qlik Replicate 移行事例:インターネットショッピングモール
• 対象システム:基幹システム(会員情報管理DB)
• 課題
– 移行したいが停止時間が3時間しか取れない
– 移行対象データベースが300GB/90テーブル(8000万会員データ)
– 短時間にデータ整合性を確認するためにどうするか
• 対策案:
– Qlik Replicateでリアルタイムでデータ連携を利用して移行
– データ整合性は、HASH値のSUMを取得することで2億件/300GBのデータ比較を10分で完了
CDC Incremental
移行元データベース 同期ツール 移行先データベース
Oracle10g 3node RAC / AIX Qlik Replicate
Oracle11g Exadata
3node RAC
Qlik Replicate
18
Qlik Replicate リアルタイム同期事例: 機械メーカー
• 対象システム:
– 世界で稼働する建設車両から自動で情報を収集し、遠隔での車両の監視・管理・分析
• 課題
– 某社製CDCソフトがOracle12cをサポートしないためリプレイスが必要
– 日本と海外現地法人5ヶ所とデータベースのリアルタイム同期が必要(1.5TB/5500テーブル)
• 対策案:
– 分析で使用しているSQLServerへリアルタイムでデータ連携
CDC Incremental
移行元データベース 同期ツール 移行先データベース
Oracle12c Qlik Replicate SQLServer2008R2/2016
FILE
CHANNEL
Qlik Replicate Qlik Replicate
19
Qlik Compose for
Data Warehouses
20
自動化されたワークフロー
Qlik Compose for Data Warehouses
ベストプラクティスに基づいたDWH設計・構築
リアルタイム
抽出
自動抽出・ロード・
マッピング
自動生成される
変換
変更の伝播
ベストプラクティスに
よる自動設計
リアルタイム
ODS
ステージング EDW マート
Qlik
Replicate
Qlik Compose for Data
Warehouses
21
具体的なメソドロジーの例
典型的なDWHのアーキテクチャー 時系列データの扱い:Slowly Changing Dimension(SCD)
Landing/
ODS
EDW データマート
CRM
ERP
FINANCE
LEGACY
ソースシステム
年 部門 従業員 売上
2019 部門1 Aさん 100
部門2 Bさん 100
Cさん 100
2020 部門1 Aさん 100
部門2 Bさん 100
Cさん 100
年 部門 従業員 売上
2019 部門1 Aさん 100
Bさん 100
部門2 Cさん 100
2020 部門1 Aさん 100
部門2 Bさん 100
Cさん 100
Bさんは:
2019年は部門1に所属
2020年は部門2に転籍
売上
明細
従業員
マスタ
部門
マスタ
従業員 From To 部門
Aさん 2019/1/1 9999/12/31 部門1
Bさん 2019/1/1 2019/12/31 部門1
Bさん 2020/1/1 9999/21/31 部門2
売上
明細
従業員
マスタ
部門
マスタ
SCD Type1
古い属性を新しい属性で上書き、常に最新情報を反映
SCD Type2
過去の履歴を残し、過去の時点の情報が参照可
いつからいつまで、誰がどこに所属していたか
最新のデータ、複数
ソースシステムからの
データを保持
統合データモデルに、
クレンジングした過去
の履歴データを格納
目的別・サブジェクト別
にディメンショナルモデル
に従ったマートを作成
22
汎用的なETLツールとQlik Composeのアプローチの違い
メソドロジーに基づいたDWH設計と、リアルタイム処理にフォーカス
Landing/
ODS
EDW データマート
CRM
ERP
FINANCE
LEGACY
ソースシステム
幅広い変換処理への対応と、大量データのバッチ処理にフォーカス
Landing/
ODS
EDW データマート
CRM
ERP
FINANCE
LEGACY
ソースシステム
ETLツール = 汎用的なデータ変換ツール Qlik Compose = DWH設計・構築ツール
ETL
ETL
ETL
ETL
ETL
ETL
ETL
ETL
ETL
全体のアーキテクチャーを1から設計
バッチ処理が基本
部分部分にETL処理を個別に実装
SCD対応のデータモデルなどを自力で設計・作成
設計変更の全体への適用が困難
マートを個別に設計
・Replicateタスクと連携
・リアルタイムにODSへデータ格納
・SCD Type1, Type2対応
・選択に応じて、論理モデル、
物理モデルを自動生成
・EDW設計・作成
・データマッピング、変換、
不正データ検知など
・ウィザードで目的に応じて
マートを作成
ベストプラクティスベースで、ステップを踏んでいくことで、リアルタイム
データ連携~マート作成までの作業を実施
23
ETL v E-LTの違い
ETL アーキテクチャ
Extract Load
Transform
• 中間層に位置する変換エンジン
✓ Informatica/DataStage/SSIS など
✓ ハイスペックな専用サーバーが必要
• 製品固有の言語
• データ移動の増加(2ホップ, 3ホップ)
• 行ごとの処理 (低速)
E-LT アーキテクチャ
Extract Load
• 変換エンジンとしてのターゲットDB/DW
• ターゲット プラットフォームのSQL言語を活用
• データ移動の削減 (1 ホップ)
• データをまとめてSQLで処理(高速)Transform
Stage Target
ルックアップ等
24
データマート
Landing/ODS
EDW
Qlik ComposeでのDWH設計の流れ
CRM
ERP
FINANCE
LEGACY
ソースシステム
25© 2017 Attunity
カスタムマッピング
データマート設計
ソースモデル
データ ウェアハウス モデルの生成
自動マッピング生成
データ ウェアハウス ETL の生成
エラー マートの生成
データ マート (スター スキーマ) ETL 生成
ワークフローの生成&オーケストレーション
自動化
▪ ネイティブ CDC 統合
▪ E-LT セット ベース、ベスト プラクティス データロード
▪ 透明で編集可能なE-LT
▪ サロゲートキー
▪ タイプ1 /タイプ2
▪ 参照整合性 (遅延到着ディメンション)
▪ エラーマートの自動化
▪ データの検証
▪ 自動化されたワークフローと依存関係
DW モデル
自動化
▪ 柔軟な物理モデル
▪ 第3正規型 /データ保管メソッド
▪ 透過的で編集可能なDDL
ロバスト E-LT
データバリデーション / 品
質ルール
スタースキーマ
自動化
▪ タイプ 1 /タイプ 2 適合ディメンション
▪ DWからの自動増分処理
▪ ディメンションの自動平坦化
▪ 明細、集計、時系列ファクトのサポート
ドキュメンテーションとデプロイ
Qlik Compose for Data Warehouses
複雑なデータ処理要件の自動化
Qlik Compose
For Data Warehouses
26
Target EPIn-Mem ProcSource EP
Qlik Data Integration Server
バッチ適用バッチロード
変更データ
キャプチャー
フィルター
&
変換
ストリーム適用
Oracle
MySQL
SQL
Server
Etc.
データソース
Data MartData Warehouse
Star Schema 1ETL Set BULK
ETL Set CDC Star Schema 2
Replicate Task
Orchestrate
Replicate
Tasks
ファイル
データ ウェアハウス
ODS
DB/SCHEMA
EDW DB/SCHEMA
データマート
DB/スキーマ
データマート
DB/スキーマ
ELTの生成とオーケストレーション
ログベースの変更キャプチャ
リアルタイム
適用
Qlik Replicate 初期ロード、CDC レプリケーション、およびソース デー
タの一括ロードを実行します。
Qlik Compose データ・ウェアハウスとデータ・マートをロードするための
データ・モデルとELTセットを生成します。
ソース複製
コピー
変更の追
跡
エラー
マート
ステージン
グ テーブ
ル
DWH
テーブル
(3NF)
ELT
エラー
マート
Qlik Compose for Data Warehouses
アーキテクチャーの概要
Qlik Replicate
Qlik Compose for Data Warehouses
リアルタイムの情報検索を
セルフサービスで可能に
• 基幹システムデータや外部データを、リアルタイム
で情報系システムに同期、正確なデータで信頼
できるDWHを実装
• 技術者のレポート作成工数を削減し、現場担当
者が直接必要なデータにアクセス、意思決定を
迅速化
• プロセスとインフラストラクチャの非効率性を軽減
し、データ資産を簡素化
• パフォーマンス改善および請求処理漏れの削減
チューリッヒ保険会社
保険事業を中心とした金融グループ
レポート作成者 BI消費者 アプリケーション
データサービス
レポーティング&
ビジュアライゼーション・ツール
整合性の取れた
データ
拡張チューリッヒ
データ
分析ツール
データスペシャリスト
データサイエンティスト
Qlik Compose for DWH
Qlik Replicate
JSON XML TEXT
内部データ・外部データ
• データハブにフライト、乗客、荷物のリアルタイム
データを統合
• 企業ウェブサイト、リアルタイムダッシュボード、分
析アプリケーション、モバイルアプリ、デジタルサイ
ネージなどによる速度と利便性、顧客体験の向
上
• 待ち時間と混雑度のモニター、効率性KPIの管
理、積荷状況のリアルタイム監視、デジタルサイ
ネージによる顧客への情報提供を実現
データハブの構築により
最短乗継時間(MCT)を短縮
グローバルハブ空港としての地位を強化
バンクーバー国際空港
29
Qlik Compose for
Data Lakes
30
1. ランディング 2. ストレージ(保管) 3. プロビジョニング(提供)
活用
キャプチャ
パーティション
エンリッチ
サブセット
データのマージ、標
準化
分析
ローでの変更
データ
<SEQ/CSV> 完全な変更履歴
<Parquet>
ODS
HDS
Snapshot
Data sets
<Parquet/ ORC/Avro>
データレイク構築の省力化・自動化
✓ リアルタイムの大量転送
✓ 一貫性のあるデータ
✓ 書き込みに最適化された形式
✓ 標準化された履歴ビュー
✓ 読み込みに最適化された形式
✓ 高い拡張性
✓ 最新 / Type 2 / スナップショット
✓ 読み込みに最適化された形式
✓ Spark & Hiveを利用した自動ロード
データ ソース
SAP
アプリ / その他
RDBMS
ファイル
メインフレーム
Qlik Compose for Data Lakes
Qlik
Replicate
Qlik Compose for
Data Lakes
31
Qlik Compose for Data Lakesのデータフローの例
Qlik
Replicate
ランディング
ゾーン
Spark
エンジン
ストレージ
ゾーン
Spark
エンジン
プロビジョニング
ゾーン
Qlik Compose for Data Lakes
CSV/SEQ
書き込みに最適化された形式
Parquet
より良い圧縮率
読み込みに最適化された形式
Parquet/ORC/Avro
より良い圧縮率
読み込みに最適化された形式
• Apache Spark を活用して、さまざまな異種ソースからの情報を迅速かつ柔軟に配信
• 履歴を含むすべてのデータをHadoopクラスターにGUI上の操作で簡単に保存
• 現在のステータス、履歴情報、または特定の時間スナップショットを含むデータレイクのサブセットを簡単に作成
データ ソース
SAP
アプリ / その他
RDBMS
ファイル
メインフレーム
32© 2017 Attunity
Data Lake Storage <bucket/container/folder>
ソース -> ランディング -> ストレージ :データフロー
Source Landing
customer
customer__ct
.seq / .csv
customer
update customers
set name = ‘Maria Anders’
where id = 1;
Delete from
customers where id = 2;
Insert into customers
values (3, ‘New Customer’);
Storage
customer
customer__delta
.snappy.parquet
Qlik
Replicate
Qlik Compose for Data Lakes
33© 2017 Attunity
Data Lake Storage
Provisioning *Storage
ストレージ -> プロビジョニング :データフロー
customer
customer__delta
HDS (“タイプ2”)
スナップショット(ポイントインタイム)
ODS (“カレント”)
.orc
.snappy.parquet
.snappy.parquet / .orc /.avro
Compactor
Task <Spark>
*各プロビジョニングタスクはそれぞれ
バケット、コンテナ、ストレージロケーションを持ちます。Qlik Compose for Data Lakes
34
サポートされるユースケース
• Snapshot:現在、あるいは過去日付の時点のレコードのスナップショットを作成
• HDS:Historical Data Store。DWH タイプ 2 と同様に最新と履歴レコードを保存するデータセットを作成。
• ODS:Operational Data Store。ソースの最新データのレプリカを作成と、HiveのACIDを使った変更データ適用
を行うデータセットを作成。
35
▪ AWS EMR
▪ Azure HDInsight
▪ Google DataProc
▪ Hortonworks
▪ Cloudera
▪ Databricks**
▪ AWS S3
▪ Azure ADLS
▪ Google Storage
▪ HDFS
Qlik Compose for Data Lakes
データレイクの自動化
データレイクストレージ
Raw Transactional Data
<SEQ/CSV>
CDC
Batch Load
エンタープライズ
データ ソース
SAP
アプリ / その他
RDBMS
ファイル
メインフレーム
メタストア
処理層
Compose
Agent
データレイク・ストレージ
Provisioned Data Sets
<Parquet/ ORC/Avro>
Standardized Historical
Raw Data
<Parquet>
外部テーブル
消費者
APPLICATIONS
ANALYTICS
Provision
Assemble
(Cloud VM or on prem)
Metadata /
Instruction channel
Data flow
✓ Qlik Replicateによる業界をリードするCDCとデータの取り込み
✓ Qlik Compose を使用してデータ消費者対応データ セットの標準化とプロビジョニングを
自動化
✓ 1,000 のエンティティにわたるスキーマ進化の自動処理
Qlik Compose
for Data Lakes
Qlik Replicate
36
事例: 自動車メーカー
Results
DB2 MF
SQL Server
Oracle
全世界に、社員数20万人、50工場
• 多様なアプリケーション(4500データベース)
• 地理的広域に渡る大量のデータ
• 分析の遅延 => 機会損失
Challenges
• KafkaでHadoopデータレイク上に一元管理
• Qlikで全ソース/ターゲットを最小時間で統合
• 1,000,000ドル(1億円)削減
• グローバルな分析を中央集中化
Hadoop
37
事例:自動車メーカー
BULK
CDC
BULK
BULK
CDC
Databases
Qlik Replicate
Qlik Replicate Qlik Replicate
38
サポート情報
39
プラットフォームサポートマトリクス
ソース ターゲット
▪ Oracle
▪ SQL Server
▪ DB2 iSeries
▪ DB2 z/OS
▪ DB2 LUW
▪ MySQL
▪ PostrgeSQL
▪ Sybase ASE
▪ Informix
▪ SAP HANA
▪ ODBC
▪ DB2 z/OS
▪ IMS/DB
▪ VSAM
▪ COBOL Copybooks
▪ ECC
▪ ERP
▪ CRM
▪ SRM
▪ GTS
▪ MDG
▪ SAP ECC - HANA
▪ SAP HANA (database)
▪ (on Oracle, SQL, DB2 LUW,
HANA)
Database Mainframe SAP
▪ Exadata
▪ Teradata
▪ Netezza
▪ Vertica
▪ Pivotal
▪ Amazon RDS
(SQL Server, Oracle,
MySQL, Postgres)
▪ Amazon Aurora (MySQL)
▪ Amazon Redshift
▪ Azure SQL Server MI
▪ Google Cloud SQL (MySQL,
PostgreSQL)
▪ Salesforce
EDW
Cloud
SaaS
▪ XML
▪ JSON
▪ Delimited
(e.g., CSV, TSV)
Flat Files
▪ RDS (MySQL, Postgres,
MariaDB, Oracle, SQL Server)
▪ Aurora (MySQL, Postgres)
▪ S3
▪ EMR
▪ Kinesis
▪ Redshift
▪ Snowflake
▪ Databricks (Q2)
▪ DBaaS (SQL DB)
▪ DBaaS (MySQL, Postgres)
▪ ADLS Gen1 & 2
▪ BLOB
▪ HDInsight
▪ Event Hub
▪ Synapse (SQL DW)
▪ Snowflake
▪ Databricks
▪ Cloud SQL (MySQL, Postgres)
▪ Cloud Storage
▪ Dataproc
▪ Pub/Sub (‘20)
▪ BigQuery ( ‘20)
▪ Snowflake (‘20)
AWS Azure Google
▪ Hortonworks
▪ Cloudera
▪ MapR
▪ Amazon EMR
▪ Azure HDInsight
▪ Google Dataproc
▪ Kafka
▪ Amazon Kinesis
▪ Azure Event Hubs
▪ MapR Streams
▪ Exadata
▪ Teradata
▪ Netezza
▪ Vertica
▪ Sybase IQ
▪ SAP HANA
▪ Microsoft PDW
Data Lake
Streaming
EDW
▪ Oracle
▪ SQL Server
▪ DB2 LUW
▪ MySQL
▪ PostgreSQL
▪ Sybase ASE
▪ Informix
▪ MemSQL
Database
▪ SAP HANA (database)
SAP
▪ Delimited
(e.g., CSV, TSV)
Flat Files
1. Compose for Data Lakes/ Data Warehouses
https://help.qlik.com/en-US/replicate/Content/Replicate/Home.htm
詳細および最新の情報は下記サイトの「Supported Platforms and
Endpoints」をご確認ください。
40
Please refer to latest support matrix for full list.
All
GCS
DataProc
Kafka
Snowflake
BigQuery
All
ADLS , BLOB
HDInsight
Event Hubs
Azure Synapse
Snowflake
Databricks
DBRDS (All)
S3
EMR
Kinesis
Redshift
Snowflake
Databricks
DBaaS
STORAGE
HADOOP
DWaaS
OTHER DWaaS
SPARK
1. DL/DW Automation
QDI - クラウド系システムのサポート
STREAMING
41
その他の情報
42
各種情報のご提供
QlikSpace Qlik Community Japan
Youtube – Qlik Japan Qlik Partner Portal
製品最新情報、イベント情報、チュートリアル、サンプルアプリ 製品・技術Q&A、製品関連資料
新製品リリースの説明ムービーなど 製品プレゼンテーション資料など(PPT)
43
Qlik Senseの書籍出版
Qlik Sense ユーザーのためのデータ分析実践バイブル
・判型:B5 変 ・総ページ数:~480 ページ程度
・予価本体:4,200円 (+税)
• QlikSpaceの記事をベースに、書籍用に大幅にカ
スタマイズ&加筆
• 1 冊でQlik Sense の基本をマスターし(=基本
編)、ニーズの高い分析例(=応用編)をできる
だけ丁寧に紹介
TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化

TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化