Elitmind @ SQLDay2018: Stream Analytics i Machine Learning – czy to dobrze do...Elitmind
Współczesne rozwiązania w obszarze zaawansowanej analityki danych muszą być gotowe na nowego typu wyzwanie: analizę danych pochodzących z różnych źródeł w czasie bliskim rzeczywistemu. Jednym z celów może być reagowanie na zdarzenia w social media czy dostarczanie spersonalizowanych ofert klientom dokładnie wtedy, kiedy tego rzeczywiście potrzebują.
W trakcie prezentacji Barbara Leśniarek (Data Scientist w Elitmind) oraz Kamil Słomka (Senior Business Intelligence Consultant) pokazali przykład implementacji takiego rozwiązania w oparciu o usługi Microsoft Azure: Stream Analytics oraz Machine Learning.
Elitmind @ SQLDay2018: Stream Analytics i Machine Learning – czy to dobrze do...Elitmind
Współczesne rozwiązania w obszarze zaawansowanej analityki danych muszą być gotowe na nowego typu wyzwanie: analizę danych pochodzących z różnych źródeł w czasie bliskim rzeczywistemu. Jednym z celów może być reagowanie na zdarzenia w social media czy dostarczanie spersonalizowanych ofert klientom dokładnie wtedy, kiedy tego rzeczywiście potrzebują.
W trakcie prezentacji Barbara Leśniarek (Data Scientist w Elitmind) oraz Kamil Słomka (Senior Business Intelligence Consultant) pokazali przykład implementacji takiego rozwiązania w oparciu o usługi Microsoft Azure: Stream Analytics oraz Machine Learning.
Jak 5 narzędzi złożyło się na sukces hurtowni
Maciek jest kierownikiem projektu hurtowni danych, Przemek liderem zespołu programistów. Razem zaprezentują jakie (darmowe) narzędzia developerskie usprawniły prace programistom oraz jakie pozytywne „efekty uboczne” przyniosły one zarówno w samym projekcie jak i w jego otoczeniu. Następnie przedstawią jak doprowadziło ich to – szybciej niż myśleli – do automatu, który na bieżąco buduje z najnowszych źródeł, wdraża i testuje hurtownię danych.
Prezentacja flagowego rozwiązania Sanmargar Team do zarządzania danymi referencyjnymi: Metastudio DRM. Więcej info o rozwiązaniu na www.sanmargar.com oraz podczas cyklicznych webinariów.
Oracle Apex - 3 real-life case studies (Pretius presentation for WDI2015)Pretius
Case-studies (in polish) from the presentation:
1. CASE STUDY: Sales Commission / Rozliczanie prowizji sprzedażowych
Przeniesienie procesów obsługiwanych przez wymianę plików do bazy danych i aplikacji Web. Wiele osób pracujących na tych samych plikach Excel i wymieniających się nimi. Od tych plików zależy wypłata prowizji, często na setki tysięcy / miliony PLN. Zasady rozliczania prowizji nie sprowadzają się zwykle do prostego mnożenia. Bardzo trudno, w przypadku korzystania z Exceli, jest osiągnąć stosowny poziom bezpieczeństwa, spójności i audytowalnosci danych potrzebnych m.in. do audytu finansowego lub rozwiązania reklamacji złożonej przez sprzedawcę.
Stojąc przed podobnym wyzwaniem zdecydowaliśmy się na użycie Oracle Apex, który wbudowane narzędzia do migracji plików Excel. Na ich podstawie tworzy struktury bazy danych, które później możemy modyfikować i dostosowywać do potrzeb. Co ważne, możemy bardzo szybko uruchomić pierwszą wersję aplikacji i w ciągu kilku dni zaprezentować ją użytkownikom biznesowym.
Wychodząc od zwykłych plików Excel tworzymy pełnoprawną aplikacje web, eliminując większość z wcześniej wymienionych problemów. Aplikacja, która powstała w ten sposób 6 lat temu, jest sukcesywnie rozwijana i stanowi pełnoprawny produkt, który potrafi integrować się z wieloma źródłami danych, konfigurować zasady prowizyjne, obliczać je, a następnie generować raporty i wysyłać (dokonywać dekretacji) do systemów księgowych.
2. CASE STUDY: Data visualisation / Wizualizacja danych
Aplikacja do zbierania danych z wielu źródeł i ich wizualizacji.
Działamy na bazie danych, w związku z czym nie mamy problemu, żeby dane z innych baz, plików, web service'ów itp. umieścić w jednym miejscu. Dane te mogą zostać następnie w prosty sposób zaprezentowane w aplikacji Apex – znając jedynie SQL możemy tworzyć atrakcyjnie wizualnie raporty, raporty tabelaryczne, raporty interaktywne czy wykresy, dostępne także na urządzenia mobilne.
W produkcie KPI Dashboard, wykorzystujemy Apex do wizualizacji danych dowolnych wskaźników znaczących dla firmy (np. SLA, liczba podpisanych umów).
3. CASE STUDY: Database application / Aplikacja bazodanowa
Aplikacja bazodanowa bez GUI lub z interfejsem napisanym w archaicznym narzędziu. Posiadamy gotowe tabele, widoki, relacje i obsługujące procesy biznesowe funkcje, pakiety i procedury. Parę lat temu stanęliśmy przed podobnym wyzwaniem. W dużej firmie wiele danych przechowywanych było w tabelach bazy danych. Dotyczyły one różnych aplikacji, tworzonych przez różne zespoły. Edycja danych początkowo bezpośrednio w bazie, ale z czasem to przestaje wystarczać - potrzebne jest nowoczesne GUI. Wybraliśmy Apex, co pozwoliło nam na bardzo szybkie stworzenie raportów dostępnych przez przeglądarkę. W kolejnym kroku dodaliśmy edycję i konfigurację.
This presentation is mainly about the system we've designed and developed for our internal purposes at work. Its name is: Data Center Physical Infrastructure Manager, DCPIM. This system is a mix of DMS (Document Management System), CMMS (Computerized Maintenance Management System), asset management, monitoring (via SNMP) and some basic DCIM (Data Center Infrastructure Management) features. It’s main purpose is to support our team in the daily tasks related to data center and physical infrastructure management, operations and maintenance. Currently, this system is in use not only by my team, in Poland, but also by our colleagues from the area of Baltic Countries (Lithuania, Latvia, Estonia).
Presented on DatacenterDynamics Converged Warsaw 2012:
http://www.datacenterdynamics.com/pl/conferences/2012/warsaw-2012
Presentation language: Polish
English title (translated): Data center ‘under control’: Data center infrastructure and physical infrastructure management, tools and processes facilitating the data center monitoring function
Rola analityki danych w transformacji cyfrowej firmy - ITFuture'17Piotr Czarnas
Analityka danych stanowi fundament transformacji cyfrowej i wdrażania kultury data-driven. Podstawą kultury data-driven jest udostępnienie danych wszystkim osobom, które na podstawie danych mogą odkrywać prawidłowości oraz budować automatyczne procesy decyzyjne.
Prezentacja została pokazana 20 września 2017 na konferencji ITFuture.
Data Governance jako część ładu korporacyjnegoAndrzej Sobczak
Pierwsza część kursu pt.: "Wprowadzenie do problematyki Data Governance". Cały materiał dostępny jest na Akademii Standardów IT (http://www.akademiastandardowit.pl).
Doradztwo strategiczne IT: Audyt IT, Software development, Zarządzanie projektami, Biuro Projektów, Zarządzanie finansami IT, Consulting prawny w IT, Organizacja działu i procesów IT.
Modele i metodyki wdrażania i zarządzania projektami eaiJaroslaw Zelinski
Enterprise application integration (EAI) is the use of software and computer systems' architectural principles to integrate a set of enterprise computer applications. How to use BPMN and UML notation.
Jak 5 narzędzi złożyło się na sukces hurtowni
Maciek jest kierownikiem projektu hurtowni danych, Przemek liderem zespołu programistów. Razem zaprezentują jakie (darmowe) narzędzia developerskie usprawniły prace programistom oraz jakie pozytywne „efekty uboczne” przyniosły one zarówno w samym projekcie jak i w jego otoczeniu. Następnie przedstawią jak doprowadziło ich to – szybciej niż myśleli – do automatu, który na bieżąco buduje z najnowszych źródeł, wdraża i testuje hurtownię danych.
Prezentacja flagowego rozwiązania Sanmargar Team do zarządzania danymi referencyjnymi: Metastudio DRM. Więcej info o rozwiązaniu na www.sanmargar.com oraz podczas cyklicznych webinariów.
Oracle Apex - 3 real-life case studies (Pretius presentation for WDI2015)Pretius
Case-studies (in polish) from the presentation:
1. CASE STUDY: Sales Commission / Rozliczanie prowizji sprzedażowych
Przeniesienie procesów obsługiwanych przez wymianę plików do bazy danych i aplikacji Web. Wiele osób pracujących na tych samych plikach Excel i wymieniających się nimi. Od tych plików zależy wypłata prowizji, często na setki tysięcy / miliony PLN. Zasady rozliczania prowizji nie sprowadzają się zwykle do prostego mnożenia. Bardzo trudno, w przypadku korzystania z Exceli, jest osiągnąć stosowny poziom bezpieczeństwa, spójności i audytowalnosci danych potrzebnych m.in. do audytu finansowego lub rozwiązania reklamacji złożonej przez sprzedawcę.
Stojąc przed podobnym wyzwaniem zdecydowaliśmy się na użycie Oracle Apex, który wbudowane narzędzia do migracji plików Excel. Na ich podstawie tworzy struktury bazy danych, które później możemy modyfikować i dostosowywać do potrzeb. Co ważne, możemy bardzo szybko uruchomić pierwszą wersję aplikacji i w ciągu kilku dni zaprezentować ją użytkownikom biznesowym.
Wychodząc od zwykłych plików Excel tworzymy pełnoprawną aplikacje web, eliminując większość z wcześniej wymienionych problemów. Aplikacja, która powstała w ten sposób 6 lat temu, jest sukcesywnie rozwijana i stanowi pełnoprawny produkt, który potrafi integrować się z wieloma źródłami danych, konfigurować zasady prowizyjne, obliczać je, a następnie generować raporty i wysyłać (dokonywać dekretacji) do systemów księgowych.
2. CASE STUDY: Data visualisation / Wizualizacja danych
Aplikacja do zbierania danych z wielu źródeł i ich wizualizacji.
Działamy na bazie danych, w związku z czym nie mamy problemu, żeby dane z innych baz, plików, web service'ów itp. umieścić w jednym miejscu. Dane te mogą zostać następnie w prosty sposób zaprezentowane w aplikacji Apex – znając jedynie SQL możemy tworzyć atrakcyjnie wizualnie raporty, raporty tabelaryczne, raporty interaktywne czy wykresy, dostępne także na urządzenia mobilne.
W produkcie KPI Dashboard, wykorzystujemy Apex do wizualizacji danych dowolnych wskaźników znaczących dla firmy (np. SLA, liczba podpisanych umów).
3. CASE STUDY: Database application / Aplikacja bazodanowa
Aplikacja bazodanowa bez GUI lub z interfejsem napisanym w archaicznym narzędziu. Posiadamy gotowe tabele, widoki, relacje i obsługujące procesy biznesowe funkcje, pakiety i procedury. Parę lat temu stanęliśmy przed podobnym wyzwaniem. W dużej firmie wiele danych przechowywanych było w tabelach bazy danych. Dotyczyły one różnych aplikacji, tworzonych przez różne zespoły. Edycja danych początkowo bezpośrednio w bazie, ale z czasem to przestaje wystarczać - potrzebne jest nowoczesne GUI. Wybraliśmy Apex, co pozwoliło nam na bardzo szybkie stworzenie raportów dostępnych przez przeglądarkę. W kolejnym kroku dodaliśmy edycję i konfigurację.
This presentation is mainly about the system we've designed and developed for our internal purposes at work. Its name is: Data Center Physical Infrastructure Manager, DCPIM. This system is a mix of DMS (Document Management System), CMMS (Computerized Maintenance Management System), asset management, monitoring (via SNMP) and some basic DCIM (Data Center Infrastructure Management) features. It’s main purpose is to support our team in the daily tasks related to data center and physical infrastructure management, operations and maintenance. Currently, this system is in use not only by my team, in Poland, but also by our colleagues from the area of Baltic Countries (Lithuania, Latvia, Estonia).
Presented on DatacenterDynamics Converged Warsaw 2012:
http://www.datacenterdynamics.com/pl/conferences/2012/warsaw-2012
Presentation language: Polish
English title (translated): Data center ‘under control’: Data center infrastructure and physical infrastructure management, tools and processes facilitating the data center monitoring function
Rola analityki danych w transformacji cyfrowej firmy - ITFuture'17Piotr Czarnas
Analityka danych stanowi fundament transformacji cyfrowej i wdrażania kultury data-driven. Podstawą kultury data-driven jest udostępnienie danych wszystkim osobom, które na podstawie danych mogą odkrywać prawidłowości oraz budować automatyczne procesy decyzyjne.
Prezentacja została pokazana 20 września 2017 na konferencji ITFuture.
Data Governance jako część ładu korporacyjnegoAndrzej Sobczak
Pierwsza część kursu pt.: "Wprowadzenie do problematyki Data Governance". Cały materiał dostępny jest na Akademii Standardów IT (http://www.akademiastandardowit.pl).
Doradztwo strategiczne IT: Audyt IT, Software development, Zarządzanie projektami, Biuro Projektów, Zarządzanie finansami IT, Consulting prawny w IT, Organizacja działu i procesów IT.
Modele i metodyki wdrażania i zarządzania projektami eaiJaroslaw Zelinski
Enterprise application integration (EAI) is the use of software and computer systems' architectural principles to integrate a set of enterprise computer applications. How to use BPMN and UML notation.
2. www.codec.pl
• BI Practice Lead w Codec (ponad 10 lat)
• Specjalizacja: Hurtownie danych, procesy ETL i
Business Intelligence
• Dawniej programista
• Certyfikaty branżowe, głównie MS SQL Server (MCDBA,
MCTS, MCITP, MCSE – BI, MCT)
• Współprowadzący warszawski oddział Data Community
• Współprowadzący Warsaw Power BI User Group
• Wykładowca na ALK
Hubert K. Kobierzewski
5. www.codec.pl
Hurtownia danych
Hurtownia danych jest systemem, który importuje, oczyszcza,
dostosowuje i dostarcza dane do wielowymiarowej bazy, która
wspiera wykonywanie zapytań oraz analizę w celu podejmowania
decyzji.
Najbardziej widoczną częścią jest
- wykonywanie zapytań oraz analizę
Najbardziej czasochłonną i złożoną częścią jest
- importuje, oczyszcza, dostosowuje i dostarcza
7. www.codec.pl
System ładowania danych
Zarządzalność
Transparentność
Skalowalność
Elastyczność
Złożoność
Audyt
Ponawialność prac
Testowanie
8. www.codec.pl
ETL
Extract – Transform – Load
Extract
- Wydobywanie danych z system źródłowego w możliwie
najefektywniejszy sposób
Transform
- Wykonywanie przekształceń danych (oczyszczanie, łączenie,
obliczenia)
Load
- Ładowanie danych do wyznaczonej bazy
9. www.codec.pl
Wartość ETL
Usuwanie błędów
Mierzenie zaufania do danych
Dostosowanie danych z różnych źródeł do jednolitego formatu
Struktury przeznaczone do użycia przez narzędzia BI
W dalszych etapach umożliwia analizę danych
12. www.codec.pl
Zarządzanie informacją - komponenty
Ludzie
Procedury
Narzędzia
Automatyzacja
(szybkość,
niezawodność)
Wymuszenie
stosowania procedur
Standaryzacja procesów i
czynności
Zapewnienie integralności
danych
Uniezależnienie od konkretnych
osób
Analiza potrzeb informacyjnych
Wyznaczanie standardów i
procedur
Obsługa sytuacji wyjątkowych
14. www.codec.pl
Centrum/Centra Kompetencyjne
Fizyczny / wirtualny zespół z
określonymi rolami
- BI COE DirectorManager
- Technical Liaison
- BI Evangelist
- Business Analyst
- Data Stewards
Regularne spotkania
- Zarządzanie strategią
- Utrzymanie i ocena Business Cases-ów
- Adaptacja rozwiązań przez
użytkowników
- Sprzedaż i adaptacja
16. www.codec.pl
Master Data Management
Definicja Master Data
MDM Operacyjny vs
Analityczny
Active vs Passive Governance
MDM będąc składową
inicjatywy BI przynosi
korzyści, z BI można
wyciągnąć wnioski pod kątem
MDM
21. www.codec.pl
Networked BI
Data
Warehouse
Clouds Database
ERP, CRM, SCM
AppsExisting Data
Stores
Big Data
Marketing EMEA APACSales
Zapobieganie silosom
Decentralizacja w oparciu o
wspólne definicje
Mash-ups, blendings
Unikanie duplikacji
Uproszczenie procesów DG
Odblokowanie inicjatywy
22. www.codec.pl
EDW
Korporacyjny Model Danych vs Departamentalne Potrzeby
Jak zneutralizować ryzyko powstania kolejnych silosów, skoro gros potrzeb powstaje w
konkretnych departamentach?
Centrum Kompetencyjne (ludzie)
Wspólne, globalne środowisko tworzenia HD (procedury)
MDM, DG, DQ (procedury)
Stały proces Agile DW loop (procedury)
Odpowiednie oprogramowanie wspomagające procedury (narzędzia)
25. www.codec.pl
Merytoryczne wymiary jakości danych. Jak oceniać?
Kompletność
Porównywanie zagregowanych danych
z rekordami kontrolnymi
Zgodność czasowa
Porównanie czasu otrzymania
danych z planowanym czasem
dostarczenia
Poprawność
Porównywanie wartości danych z
wartościami dozwolonymi w domenie
Spójność
Porównanie rozkładu nowych danych
z danymi historycznymi
Integralność
Potwierdzenie umiejscowienia
danych względem referencyjnych
zestawów danych
Unikalność
Badanie duplikatów
Wg DAMA UK, październik 2003
26. www.codec.pl
Merytoryczne wymiary jakości danych. Co oceniać?
Kompletność
Suma załadowanych wypłat
odszkodowań vs rekord kontrolny
Zgodność czasowa
Czas dostarczenia danych względem
udokumentowanego SLA
Poprawność
Zgodność załadowanych kodów
krajów z listą poprawnych kodów
krajów
Spójność
Procent rozkładu każdego z kodów
krajów zgodny z jego historycznym
rozkładem
Integralność
Załadowane kody produktów obecne
w tablicach słownikowych
Unikalność
Mierzenie ilości duplikatów
Wg DAMA UK, październik 2003
27. www.codec.pl
Kolejność wykonywania pomiarów
Kompletność
• Czy wszystkie zestawy danych są zapisane?
Integralność
• Czy dane “pasują” do pozostałych tabel?
Unikalność
• Czy nie duplikujemy danych bez potrzeby lub błędnie?
Poprawność
• Czy dane odpowiadają nałożonym regułom?
Spójność
• Czy dane odzwierciedlają zestaw, do którego należą?
28. www.codec.pl
Kompletność
Konieczna definicja potencjalnego 100% kompletności
Miarą jest brak wartości pustych bądź pustych łańcuchów
Zakres: 0 – 100%
Jednostka: Procent
Typ miary: ocena
Interpretacja zależy od nałożonej zasady zezwalającej na
wartość pustą
29. www.codec.pl
Unikalność
Nie zapisujemy elementów więcej niż jeden raz
Miarą jest stosunek ilości elementów w “świecie rzeczywistym”
do ilości elementów w zestawie danych
Zakres: 0 – 100%
Jednostka: Procent
Typ miary: dyskretna
30. www.codec.pl
Zgodność czasowa
Stopień, w jakim dane reprezentują świat rzeczywisty z
wymaganego punktu w czasie
Miarą jest różnica w czasie
Mierzone mogą być zarówno rekordy, tabele jak i bazy danych
Jednostka: Czas
Typ miary: ocena i ciągłość
31. www.codec.pl
Poprawność
Dane są poprawne jeśli spełniają zasady (format, typ, zakres)
Miarą jest stosunek rekordów poprawnych do wszystkich
Mierzone są wartości w kolumnach lub całe rekordy
Jednostka: Procent
Typ miary: ocena, ciągłość, dyskretna
32. www.codec.pl
Spójność
Stopień, w jakim dane odzwierciedlają rzeczywistość
Wymagana jest wiedza dziedzinowa i definicja zasad
Miarą jest stosunek rekordów “rzeczywistych” do wszystkich
Mierzone są wartości w kolumnach lub całe rekordy
Jednostka: Procent
Typ miary: ocena, ciągłość, dyskretna
Dane niespełniające zasad spójności są bezużyteczne
33. www.codec.pl
Integralność
Braki lub różnice w trakcie porównywania dwóch lub więcej
zbiorów reprezentujących ten sam rodzaj informacji
Miarą jest stosunek rekordów zgodnych z referencją do
wszystkich
Mierzone są wartości w kolumnach, rekordy, tabele i całe bazy
danych
Jednostka: Procent
Typ miary: ocena, dyskretna
Dane niespełniające zasad spójności są bezużyteczne
34. www.codec.pl
Wymiary związane z zarządzaniem danymi
Dostępność
Definicja (jednoznaczna)
Granulacja
Precyzja
Adekwatność
Dostępność w czasie
35. www.codec.pl
największy operator
krajowych linii
autobusowych w Wielkiej
Brytanii
18,5 miliona pasażerów
rocznie
1800 pracowników
Hurtownia danych:
600 GB danych od roku 2003
15 kostek (w tym 4 wirtualne)
i 32 wymiary
8 odrębnych źródeł danych
ok. 100 użytkowników w 12
grupach
37. www.codec.pl
Monitorowanie jakości danych
Audyt jako wymiar w hurtowni danych (Kimball)
Metadane procesu ETL
Miary
- statystyka załadowanych danych: źródło vs data mart
- błędy
Dwie struktury (lub więcej)
- Tabela wystąpień procesów ładowania
- Tabela faktów przechowująca miary
- Tabela ze słownikiem rodzajów ładowanych danych
42. www.codec.pl
Rozwiązania
Zarządzanie danymi podstawowymi
Jakość danych
Business Intelligence
Zasady
Polityki
Cała organizacja
Program a nie projekt
Ewolucja vs rewolucja
Będą zmiany
43. www.codec.pl
Dojrzałość w zarządzaniu informacją
• Pojedyncze osoby zarządzają swoimi danymi
• Chaos i brak zasadPoczątkowa
• Normą są dane na poziome departamentu
• Analityka jest wąska i kosztownaPowtarzalna
• Początek struktur obejmujących całą organizację, pojawia sie integracja
• Ewoluuje kwestia zaufania do danych, pojawiają sie standardyZdefiniowana
• Przepływ danych jest śledzony a procesy są udokumentowane
• Jakość danych jest wbudowanaZarządzana
• Nie ma potrzeby ustalania czy aktywa informacji są zarządzane
• Zarządzanie informacją wspiera poprawę procesów i innowacjeZoptymalizowana
45. www.codec.pl
Funkcje programu zarządzania danymi
Zarządzanie informacją na poziomie organizacji
Federacja – specyfikowanie standardów organizacyjnych
Efektywność informacyjna – odpowiednie dane, dostępne, we
właściwym miejscu, we właściwym formacie, dla uprawnionych
użytkowników, zoptymalizowane kosztowo
Zgodność z biznesem
Jakość informacji
Zarządzanie ryzykiem
Współpraca
48. www.codec.pl
Projekt funkcjonalny
Ustalenie podstawowych zasad informacyjnych
Ustalenie podstawowych polityk zarządzania danymi oraz procesów wspierających biznes
Identyfikacja/poprawienie funkcji i procesów zarządzania informacją
Identyfikacja odpowiedzialności i właścicielstwa modeli
Zaprezentowanie kierownictwu funkcjonalnego modelu zarządzania informacją
Jakość danych, audyt
Podział prac w
jakości danych
51. www.codec.pl
Funkcje planistyczne
Zarządzanie
• Wizja zarządzania danymi i kierunek
rozwoju
• Definiowanie odpowiedzialności
• Dostosowanie zasad i implementacja
• Zapewnienie zgodności z celami
biznesowymi
• Monitorowanie dojrzałości
informacyjnej
Kierowanie
• Dopasowanie architektury systemów
informacyjnych do strategii
biznesowej organizacji
• Ustalenie priorytetów dla projektów
• Ocena dojrzałości informacyjnej
52. www.codec.pl
Funkcje projektowe (design)
Zarządzanie
• Definicja polityk i procesów
• Nowe procesy kontrolne
• Konsultacje z lub kierowanie data
stewardami
• Szkolenia
Kierowanie
• Zaprojektowanie i wdrożenie
repozytorium metadanych na
poziomie organizacji
• Zaprojektowanie standardowych
usług kontrolnych
• Zdefiniowanie danych
referencyjnych
• Definicje standardów w danych
53. www.codec.pl
Funkcje zarządcze/kierownicze
Zarządzanie
• Definicja działań właścicielskich
i tzw. stewardship
• Rozwiązywanie problemów
• Procesy weryfikacyjne
• Administracja zarządzaniem
danymi
Kierowanie
• Zarządzanie architekturą
danych
• Doskonalenie strategii
uprodukcyjniania wraz z
metrykami
• Śledzenie zmian i trendów w
dziedzinie zarządzania danymi
• Zarządzanie projektami BI
This slide outlines the feedback that we have received from the business. As you can see the business feel that the current BI implementations within the organisation have room for improvement …