Efektywne zarządzanie informacją to największy kapitał w biznesie. Przedstawiamy raport prezentujący wyniki badań przeprowadzonych wśród kadry managerskiej na temat znaczenia informacji [str. 22-27].
3. 3
Optymalizacja jest koniecznością
5 kroków budowania zespołu wg Łukasza Kruczka
Barbara Mejssner, it-manager.pl
Redukcja kosztów w IT
Jak mierzyć efektywność IT
Stanisław Matczak
Efektywne zarządzanie informacją to największy kapitał w biznesie
Rafał Jakubowski
Przewaga dzięki specjalizacji
Piotr Rojek, DSR Sp z o.o.
Outsourcing: prościej, bezpieczniej, taniej
Robert Paszkiewicz, ATM S.A.
Optymalizacja, oszczędności i transformacja w obszarze danych
Urszula Jaworska
Najważniejsze są relacje
Krzysztof Jarosz w rozmowie ze Stanisławem Bochnakiem oraz Robertem Jesionkiem
Lean IT – doskonalenie na wiele sposobów
Rafał Nessel, Deloitte Polska
Pięć kroków skutecznej restrukturyzacji IT
Asish Ramchandran, Joseph Joy, Varun Joshi, Shomic Saha, Deloitte Consulting LLP
6
12
15
18
22
28
34
38
42
46
50
Spis treści
4. 4
54
54
55
55
56
56
57
Redaktor naczelny: Robert Jesionek
Współpraca redakcyjna: Barbara Mejssner
Projekt graficzny i skład: Monika Bucoń
Optymalizacja na portalu it-manager.pl
Model usług telco do przedefiniowania
Hamulec cyfrowej transformacji
Lean IT – produktywność i efektywność w organizacji
Jak obniżyć koszty backupu
Miliony stracone na licencjach
Szukając większej efektywności
Innowacyjność a wyniki finansowe
Styczeń 2015
6. 6
Optymalizacja jest koniecznością
Firmy z Europy Środkowo-Wschodniej w dalszym
ciągu odczuwają skutki ostatniej recesji na
świecie i kryzysu w strefie euro. Po niedawnym
spowolnieniu gospodarki, przedsiębiorstwa
wprowadziły ścisłą kontrolę wydatków, zadbały
o wsparcie procesów biznesowych, a także
wyeliminowały programy i projekty niemające
bezpośredniego związku z zyskiem.
Trudne środowisko sprawiło, że firmy ponownie
analizują swoje priorytety biznesowe i strategiczne.
Kładą przy tym większy nacisk na optymalizację
środowisk informatycznych i procesów.
W połączeniu z szybszym tempem opracowywania
technologii jest to źródłem zasadniczej zmiany
roli dyrektora ds. informatycznych (CIO), który
ma już nie tylko wspierać rozwój biznesowy
i innowacyjność, ale wręcz być ich motorem.
Badanie IDC
Firma IDC zrealizowała niedawno badanie
z udziałem 180 dużych przedsiębiorstw, w ramach
którego przeprowadzono 200 ankiet z dyrektorami
ds. informatycznych i dyrektorami generalnymi (CEO)
podmiotów działających w Europie Środkowo-
Wschodniej. Celem badania była analiza aktualnych
strategii informatycznych i sposobów stosowanych
przez dyrektorów ds. informatycznych, aby sprostać
konieczności optymalizacji infrastruktury IT,
a jednocześnie wspierać szersze strategiczne
potrzeby biznesowe swoich firm.
Analitycy IDC stwierdzili, że budżety IT są
wprawdzie w dalszym ciągu pod ścisłą kontrolą,
a normą wciąż są standardowe, przyrostowe
poprawki i aktualizacje posiadanej infrastruktury,
jednak dyrektorzy dążą do bardziej kompleksowego
przekształcenia środowisk informatycznych w skali
całego przedsiębiorstwa. Taka transformacja
ma im pozwolić dotrzymać kroku nieprzerwanie
zmieniającym się potrzebom biznesowym firm.
Badanie wykazało, że czołowe priorytety
strategiczne w regionie na nadchodzący rok
to przede wszystkim optymalizacja procesów
biznesowych, na dalszych miejscach znalazły się:
redukcja kosztów oraz kwestia poprawy jakości.
Stwierdzono także, iż dyrektorzy IT są skłonni
zrestrukturyzować swoje środowiska IT, aby lepiej
sprostać wyzwaniom nowych czasów. Taka
transformacja może być dokonana za pomocą
szerokiej adaptacji najnowszych osiągnięć IT –
takich, jak chmura, mobilność, big data oraz
nowoczesna platforma bazodanowa, która
poradzi sobie z czekającą nas w najbliższym
czasie eksplozją danych.
Kontrola kosztów przez optymalizację
Należy zaznaczyć, że w tle wszystkich
wymienionych priorytetów kryje się nacisk
na zyski, przez co współczesnym dyrektorom
ds. informatycznych trudno jest niekiedy sprostać
stawianym przed nimi wyzwaniom. Oczekuje się
od nich, że przez poprawę procesów biznesowych
pomogą zwiększać przychody. Jednocześnie muszą
jednak utrzymać koszty niezbędnej infrastruktury
i rozwiązań pod ścisłą kontrolą. Nawet jeśli sytuacja
gospodarcza się poprawia, budżety działów
informatycznych rosną o nie więcej niż 1–2%,
przy czym nawet ta skromna podwyżka wynika
Badanie IDC przeprowadzone na zlecenie firm Oracle oraz Intel wskazuje, że na pierwszym
miejscu priorytetów dyrektorów IT w regionie Europy Środkowo-Wschodniej na rok 2015
znajduje się optymalizacja procesów biznesowych.
7. 7
w głównej mierze z faktu, że po latach obniżek
nie można już dalej ignorować pewnych potrzeb.
Typową metodą na kontrolowanie kosztów było
zawsze negocjowanie niższych cen z dostawcami
rozwiązań IT. Z danych IDC wynika, że umowy
dotyczące świadczenia usług informatycznych
w Europie Środkowo-Wschodniej mają dziś
krótszy okres obowiązywania i stały się bardziej
ukierunkowane – dotyczą pojedynczych kwestii
lub wyzwań biznesowych bądź informatycznych.
Takie podejście jest jednak krótkowzroczne i zaczyna
ograniczać elastyczność działów IT, ponieważ
kupowanie rozwiązań na podstawie udzielanych
rabatów przyczyniło się do pofragmentowania
środowisk informatycznych. Co więcej, podejście
to nie koncentruje się aktywnie na obszarach,
które mogą pomóc w generowaniu przychodów.
Jak wskazuje badanie IDC, wśród przedsiębiorstw
pojawia się ostatnio bardziej perspektywiczny
sposób myślenia. Aby zrobić więcej – lub wykonać
nowe zadania – mniejszym kosztem, można
zrestrukturyzować i zoptymalizować środowisko IT.
Źródłem transformacji jest ewolucja
Połączenie kontroli kosztów i konieczności
zwiększania prężności działania przedsiębiorstwa
przyczyniło się do zmiany sposobu myślenia wśród
decydentów z działu IT. Charakteryzuje się on
naciskiem na to, aby robić więcej – i wykonywać
nowe zadania – mniejszym kosztem.
Natychmiastowa zmiana jest jednak dla większości
przedsiębiorstw z Europy Środkowo-Wschodniej
trudna. Powszechnie stosowane są starsze systemy,
oceniane jako „wystarczająco dobre”. Stworzone
w firmie i na zamówienie aplikacje mogą być
trudne do zintegrowania ze standardowymi
rozwiązaniami. Większość dyrektorów
ds. informatycznych stawia więc na podejście
długofalowe. Z badania IDC w regionie
Europy Środkowo-Wschodniej wynika, że CIO
prowadzą swoje środowiska w kierunku większej
optymalizacji przez m.in. następujące działania:
• Upraszczanie. W Europie Środkowo-
Wschodniej firmy muszą się dziś zmierzyć
z prawdziwym tsunami usystematyzowanych
i nieusystematyzowanych danych napływających
z lokalizacji zdalnych. Liczne badania dowodzą,
że same koszty pamięci masowej mogą
sięgnąć nawet 10% wydatków działu IT.
Aby sprostać ilości, szybkości napływania
i różnorodności danych, przedsiębiorstwa
stawiają na upraszczanie, które stało się ich
głównym priorytetem. Jak skomentował dyrektor
ds. informatycznych z jednego z polskich
przedsiębiorstw energetycznych, „infrastruktura IT
i liczne starsze systemy oznaczają wysokie koszty
serwisowania”. Sytuacja ta często prowadzi
do powstania wąskich gardeł w procesach
informatycznych i biznesowych. Aby poradzić
sobie z tą sytuacją, dyrektorzy ds. informatycznych
zmniejszają liczbę systemów i tworzą środowiska
oparte na usługach internetowych.
• Konsolidacja – jako strategiczna reakcja
na nadmierne rozrastanie się infrastruktury
informatycznej i konieczność wymiany starszych
systemów. Zwykle rozpoczyna się ona od planu
zgromadzenia serwerów i pamięci masowej
w jednej lokalizacji. Jej celem jest też zmniejszenie
całkowitej ilości zasobów informatycznych.
Ok. 86% ankietowanych przedsiębiorstw
skonsolidowało już swoje centra przetwarzania
danych w jednej lokalizacji. Konsolidacja tego
typu może poprawić stopień wykorzystania
pojemności, wyeliminować zbędną nadmiarowość
oraz duplikację systemów i pamięci masowej,
a także zmniejszyć zużycie energii.
Kluczowym elementem konsolidacji jest
wirtualizacja serwerów i pamięci masowej,
ponieważ może ona pomóc usprawnić
8. 8
administrowanie systemami i umożliwia
korzystanie z konsoli, monitorowanie,
pomiary i obciążanie opłatami. Wszystko to
stwarza podstawy dla wdrażania zasobów
informatycznych w chmurach prywatnych
i publicznych, w których można efektywnie
łączyć aplikacje (bezpośrednio lub przez
warstwę pośrednią) z bazą danych i źródłami
informacji napływających w czasie rzeczywistym,
co pozwala przeprowadzać złożone analizy
ukierunkowane na poprawę obsługi klienta.
Ok. 46% dyrektorów ds. informatycznych
z regionu jako najważniejszą zaletę chmury
wskazało większą elastyczność, wielu wydaje się
też myśleć perspektywicznie i prowadzić swoje
systemy w tym kierunku.
• Samoobsługa. Dyrektorzy ds. informatycznych
w dużej mierze dostrzegają, że automatyzacja
procesów i zapewnienie praw administracyjnych
menedżerom spoza obszaru IT może znacznie
zwiększyć efektywność tworzenia kont
użytkowników, przyznawania uprawnień
i udostępniania podstawowych narzędzi.
Ponad 60% ankietowanych wdrożyło pewną
formę samoobsługowego udostępniania
zasobów, a 40% – katalog usług.
Nowe wyzwania, nowe możliwości
Ponad 80% ankietowanych dyrektorów IT
przyznało, że rozwiązania informatyczne są
kluczowe dla obniżania kosztów biznesowych.
Wyjaśnia to, dlaczego wdrażanie i modernizację
systemów ERP, CRM, HCM oraz innych aplikacji
biznesowych wymienia się wśród najważniejszych
priorytetów działu IT. Rozwiązania te odgrywają
decydującą rolę w optymalizacji procesów
biznesowych i pośrednio wpływają na obniżanie
kosztów, a należy pamiętać, że oba te zagadnienia
należą do najważniejszych priorytetów firm.
Co więcej, 38% przedsiębiorstw w Europie
Środkowo-Wschodniej inwestuje w oprogramowanie
do analizy danych biznesowych i przeprowadzania
innych analiz (w tym analiz big data), aby móc
łatwiej wskazywać możliwości optymalizacji
funkcjonowania przedsiębiorstwa i procesów.
Narzędzia do analizy danych biznesowych
stosowane dla systemu CRM, systemu do
zarządzania procesami czy systemów finansowych,
a także danych dotyczących poziomu wykorzystania
infrastruktury lub szczegółowych informacji
od klientów, mogą być też jednak wdrażane
równolegle we wszystkich tych systemach.
Istotne inwestycje wiążą się też z mobilnością –
ok. jedna trzecia dyrektorów ds. informatycznych
stwierdziła, że jest to w ich wydatkach jeden
z najważniejszych priorytetów. Narzędzia mobilne
86%
79%
72%
58%
43%
Stan transformacji przedsiębiorstw
Konsolidacja
Wirtualizacja
Monitorowanie i mierzenie
Samoobsługowe
udostępnianie zasobów
Samoobsługowe
udostępnianie katalogu usług
Źródło: IDC, 2014 – na podstawie 186 ankiet
9. 9
można wykorzystać nie tylko do zapewnienia dostępu
do systemów przedsiębiorstwa z odległych lokalizacji,
ale także do generowania dodatkowych informacji
na temat wydajności zespołów handlowych
i łączności, a także wydatków na komunikację.
Nadchodzi rewolucja
Choć wielu dyrektorów ds. informatycznych,
którzy wzięli udział w ankiecie IDC, niechętnie
używa terminu „chmura”, liczby sugerują, że firmy
idą w kierunku wdrażania technologii cloud
computing. Coraz więcej, bo 32%, korzysta już
ze środowiska chmury prywatnej lub hybrydowej,
16% używa natomiast infrastruktury chmury
publicznej i/lub aplikacji udostępnianych
w chmurze tego typu. Choć tylko nieco poniżej
10% ankietowanych przyznaje, że stosuje aplikacje
dostępne w chmurze publicznej, oprogramowanie
jako usługa (SaaS) stanie się w najbliższych latach
nowym modelem podstawowym.
Oprócz znacznego uproszczenia administrowania
aplikacjami, platformami (w tym bazami danych)
i infrastrukturą, modele oparte na chmurze
umożliwiają szybkie opracowywanie
i wdrażanie aplikacji biznesowych. Niezależnie
od tego, czy odbywa się to wewnętrznie,
czy za pośrednictwem dostawcy rozwiązań
informatycznych – chmura otwiera drzwi
eksperymentom, innowacjom i ściślejszej
integracji oprogramowania z infrastrukturą,
co może prowadzić do wypracowania trwałej
przewagi nad konkurencją i znacznie zwiększyć
zyski przedsiębiorstwa. Proces ten oznacza więc
w ostatecznym rozrachunku uproszczenie, które
pozwala wymienić mało wydajne maszyny i systemy
przy jednoczesnym ograniczeniu ich liczby.
Społecznościowe narzędzia biznesowe, Internet
i konsumeryzacja branży informatycznej w wyniku
dużego wzrostu popularności smartfonów i tabletów
sprawiły, że w przedsiębiorstwach pojawił się
nowy typ użytkownika, który jest przyzwyczajony
do mobilności, nieustannego kontaktu ze
znajomymi, rodziną i firmą oraz dostawania tego,
co chce – wtedy, gdy tego potrzebuje. Wśród
firm działających w segmencie B2C wywołało to
Korzyści z chmury publicznej lub prywatnej
Większa elastyczność
Mniejsza bariera wejścia
Szybkie wdrożenie
Mniejsze koszty osobowe w dziale IT
Niższy całkowity koszt posiadania (TCO)
0% 10% 20% 30% 40% 50%
Źródło: IDC, 2014 – na podstawie 186 ankiet
10. 10
olbrzymią presję na zapewnienie klientom obsługi
za pośrednictwem wszystkich kanałów. Banki,
sklepy detaliczne, operatorzy telekomunikacyjni,
usługodawcy, przedsiębiorstwa komunalne i zakłady
komunikacji miejskiej, linie lotnicze, hotele –
wszystkie te firmy i instytucje muszą w czasie
rzeczywistym udostępniać informacje w swoich
serwisach internetowych, aplikacjach, telecentrach,
kioskach, komunikatorach i za pośrednictwem
swoich pracowników w oddziałach. Działanie
w dowolnym punkcie musi być natychmiast
rejestrowane we wszystkich pozostałych obszarach,
aby zapewnić klientowi płynną obsługę również
przy zmianie kanału.
Tak więc kolejną rewolucyjną zmianą w działaniu
przedsiębiorstw jest takie przekształcenie
systemów, aby uzyskać maksymalną szybkość
reagowania, która musi być zapewniona
w dwóch aspektach: w przypadku transakcji
(lub transmisji danych) i zdolności błyskawicznego
opracowywania nowych produktów i usług.
Perspektywa IDC: przychody w chmurze
Przedsiębiorstwa w regionie Europy Środkowo-
Wschodniej są jeszcze na początkowym etapie
transformacji swoich środowisk IT. Rynek chmur
publicznych i rozwiązań SaaS rośnie jednak
o ok. 30% rocznie, IDC spodziewa się więc,
że za trzy lub cztery lata sytuacja będzie całkiem
odmienna. Dyrektorzy ds. informatycznych, którzy
stawiają na model oparty przede wszystkim
na chmurze i go wdrażają, pomagają swoim
przedsiębiorstwom (i swoim karierom zawodowym)
wyraźnie wyprzedzić konkurencję.
Duże międzynarodowe przedsiębiorstwa z branży IT
poświęciły lata na opracowanie gotowych
produktów służących konkretnym potrzebom
biznesowym. Nawet przy stosunkowo atrakcyjnych
kosztach pracy w Europie Środkowo-Wschodniej
wewnętrzne opracowywanie i obsługiwanie
systemów może kosztować więcej niż skorzystanie
z usług firmy zewnętrznej. Aplikacje zawsze będzie
trzeba dostosowywać do niestandardowych
potrzeb, jednak systemy HCM, SCM, CRM oraz
rozwiązania podatkowe i księgowe, narzędzia
do zarządzania dokumentami, bazy danych,
platformy, pamięć masowa i inne rozwiązania
infrastrukturalne można zwykle skonfigurować
i uruchomić znacznie szybciej, gdy wszystkim tym
zajmie się doświadczony dostawca zewnętrzny.
średni roczny wzrost
usług chmurowych
w krajach CEE
należących do UE
wzrost rozwiązań
społecznościowych na
rynkach Unii Europejskiej
tyle razy szybciej rosną
wydatki na big data
w porównaniu do
wzrostu rynku IT
obywateli krajów
CEE posiada
smartfony
Źródło: IDC, 2014
CEE = kraje Europy Środkowo-Wschodniej
Szybkie tempo transformacji
Opracowano na podstawie IDC White Paper:
Driving Business Growth and Innovation: The Next Step for CIOs in Central and Eastern Europe
11. 11
Optymalizacja IT to bardzo szeroki temat, którym zajmuje się także dział Asysty Technicznej
Oracle. Każdy użytkownik naszych rozwiązań, który ma aktywną usługę Oracle Premier Support,
ma do dyspozycji kilka ścieżek pozwalających na optymalizowanie zarówno systemu jako
całości, jak też jego poszczególnych komponentów. Dział Oracle Support stosuje w swojej pracy
podejście proaktywne, co oznacza, że nie tylko reaguje na określone zgłoszenia od użytkowników,
ale proponuje rozwiązania problemów, zanim jeszcze one wystąpią. W większości umów mamy
ustalony taki poziom usługi, że po znalezieniu możliwości usprawnienia systemu, odpowiednie
czynności są od razu wykonywane.
Jednym z procesów optymalizacji które oferujemy, jest możliwość korzystania z modelu
samoobsługi, dzięki której wiele zadań związanych z utrzymaniem systemów Oracle odbywa
się automatycznie. Pracujące u klientów nasze instalacje, posiadają wyspecjalizowane narzędzia
pakietu Oracle Configuration Manager, które analizują konfigurację systemu IT i potrafią
zasugerować użytkownikom zmiany zwiększające jego poziom optymalizacji. Dodatkowo Asysta
Techniczna Oracle otrzymuje zdalnie sygnał o problemie i sugeruje strojenie systemu, informując
użytkownika drogą mailową o podjętych czynnościach. Może to być zmiana parametrów
systemu lub instalacja odpowiednich aktualizacji, dzięki którym system będzie działał sprawniej.
Oprócz stosowania aktualizacji fabrycznych, dostarczanych przez Korporację, mamy możliwość
przygotowania sprofilowanej aktualizacji dla konkretnego użytkownika, z uwzględnieniem
wszystkich uwarunkowań i specyficznych cech pracującego u niego systemu.
Bardzo szeroko stosujemy także metodę kształcenia użytkowników do obsługi rozwiązań Oracle,
wierząc że w każdej organizacji dobrze wyszkolony zespół IT potrafi najlepiej zarządzać procesami
optymalizacji własnych systemów. Udostępniamy bezpłatnie setki szkoleń online, dzięki którym
użytkownicy mogą na bieżąco aktualizować swoją wiedzę na temat produktów Oracle,
jakie u nich są zainstalowane.
Od niedawna dostępna jest także specjalna ścieżka szkoleń, należąca do grupy zwanej Akredytacją.
Szkolenia tej kategorii kończą się swego rodzaju egzaminem, potwierdzającym konkretne
umiejętności specjalistów działu IT klienta. Certyfikat akredytacyjny jest świadectwem, że inżynier
posiada wiedzę pozwalającą najskuteczniej korzystać z narzędzi Oracle Support, dla jeszcze
sprawniejszego rozwiązywania wszystkich problemów z optymalizacją systemów i jego elementów.
W ramach Asysty Technicznej działa zespół Oracle Advanced Customer Support (ACS), który
ma jeszcze większe możliwości optymalizowania systemów u klientów. Ponieważ ACS udostępnia
użytkownikowi dedykowanych ekspertów, opiekujących się konkretną instalacją i posiadających
dogłębną wiedzę na jej temat, każde działanie wykonywane jest znacznie szybciej. Ponadto
w ramach swoich usług ACS może wykonać dla klienta tzw. Proof of Concept, aby sprawdzić
nowe możliwości optymalizacji jego systemu IT. Dzięki temu jest możliwe przetestowanie wielu
zaawansowanych możliwości optymalizowania – takich, jak wdrożenie modelu chmury prywatnej,
czy wirtualizacja.
Paweł Szymczak,
Dyrektor Działu Oracle Support odpowiedzialny za Polskę
12. 12
5 kroków budowania zespołu
wg Łukasza Kruczka
Jak zaangażować wszystkich członków zespołu
do zwycięstwa? Na to pytanie szukają odpowiedzi
zarówno menedżerowie biznesu, jak i trenerzy
sportowi. Łukasz Kruczek stosuje w swojej pracy
5 kluczowych zasad zarządzania zespołem
wyrastających ze Strategii Lean. Prowadzą one
do wzrostu determinacji i motywacji całej drużyny,
co stanowi klucz do ciągłej poprawy wyników.
1. Jeden zespół, jedna droga
Łukasz Kruczek mówi: W pracy trenerskiej dążę do
tego, by drużynie przyświecała myśl „jeden zespół,
jedna droga” – co oznacza, że wszyscy jedziemy na
tym samym wózku. Podstawą są jasno zdefiniowane
cele, dzięki którym mamy przejrzyste kryteria
zwycięstwa. Powtarzam zawodnikom, że każdy ma
wpływ na wynik innej osoby z zespołu. Skoczkowie
są dla siebie nawzajem trenerami. Wspierają się
i motywują, a także w razie czego instruują.
Dzięki temu mają poczucie odpowiedzialności
i dążą do wspólnego sukcesu.
Współpraca między zawodnikami jest przykładem
dobrych praktyk, które warto przenieść na
płaszczyznę biznesu. Przy wdrażaniu Strategii
Lean zadaję menedżerom pytanie, jaki jest cel
ich organizacji i jaka jest strategia jej rozwoju,
najczęściej wskazują na cele indywidualnych
departamentów – mówi Radosław Drzewiecki,
prezes Leanpassion. Firmy są podzielone na szereg
silosów wertykalnych, takich jak: sprzedaż, operacje,
HR, finanse. Problem w tym, że nie mają one
świadomości wspólnych celów. Bariera występuje nie
tylko pomiędzy departamentami, ale także między
kadrą menedżerską, a resztą pracowników. Dlatego
warto na początek usiąść razem i niczym drużyna
skoczków określić wspólne cele.
2. 100% zaangażowania to podstawa
– Jeśli zawodnik jest zaangażowany na 90% to nie
może osiągnąć wyniku w sporcie. Dotyczy to nie
tylko skoczków, co całego zespołu – przekonuje
Kruczek. – Jeśli jedna osoba odpuszcza, odbija się
to na całej grupie. Wszyscy biorą odpowiedzialność
za swoją pracę i muszą pamiętać, że od ich
efektów zależy sukces drużyny. Zadaniem trenera
jest natychmiastowa ocena po każdym oddanym
skoku. W ten sposób zaangażowanie nie słabnie,
a zawodnik może na bieżąco poprawiać swoje wyniki.
Wg wyników badań przeprowadzonych przez
Instytut Gallupa* tylko 13% pracowników odczuwa
Wraz z nadejściem okresu zimowego rozpoczął się sezon wyjątkowych emocji na skoczniach
narciarskich. Choć aktualnie polska reprezentacja nie święci triumfów na zawodach, trener
Łukasz Kruczek nie ustaje w wysiłkach, by zawodnicy stanęli na najwyższym podium.
Szkoleniowiec wie, że wynik jest efektem nie tyle dobrego startu jednego sportowca,
co wytrwałej pracy całego zespołu. Dokładnie zaplanowany trening oparty na szczegółowej
analizie każdego skoku, testowanie nowych technologii i poszukiwanie ciągłych usprawnień
przez wszystkich członków drużyny sprzyja budowaniu zespołu. Metody zarządzania stosowane
przez doświadczonego trenera to nic innego jak wykorzystywanie elementów Strategii Lean,
czyli zaangażowanie wszystkich członków zespołu w budowanie przewagi konkurencyjnej.
Barbara Mejssner, it-manager.pl
13. 13
satysfakcję z pracy. Statystyki wskazują również,
że 85% respondentów przychodzi do pracy,
ponieważ nie mają innego wyjścia i po prostu
muszą, a ich główną motywacją są pieniądze.
Co ciekawe, badania wyraźnie pokazują korelację
pomiędzy stopniem zaangażowania pracowników,
a wynikami finansowymi. Średni wskaźnik EBIT
w firmach charakteryzujących się wysoką
satysfakcją zespołu jest trzykrotnie wyższy niż
w pozostałych organizacjach. Radosław Drzewiecki
mówi: Sięgając do Strategii Lean, poziom satysfakcji
zespołu rośnie wówczas, gdy menedżerowie
„są bezpośrednio w procesie”, rozmawiają
z pracownikami i zadają pytania dotyczące jego
realizacji. W ten sposób można wyeliminować
charakterystyczną dla relacji menedżer–pracownik
asymetrię informacji oraz różne postrzeganie
celów firmy.
3. Zwycięski skok to nie zawsze dobry skok
– Gdy wraz z zespołem analizujemy zwycięskie
skoki, zdarza się, że choć są one dalekie, często
daleko im do perfekcji. Zwycięzcy są często lepsi
od konkurencji, ponieważ po prostu popełniają
mniej błędów. Szczegółowa analiza skoku pozwala
wychwycić szereg szczegółów, które można poprawić,
a tym samym dążyć do ciągłego usprawniania pracy
skoczków. Gdybyśmy oparli naszą ocenę na opiniach
z zewnątrz, już dawno byśmy przestali trenować –
a konkurencja tylko na to czeka.
Często w praktyce biznesowej spotykamy się
z sytuacją, w której menedżerowie prowadzą
długie dyskusje, na temat tego, kto ma rację,
a nikt nie pokusi się o zadanie pytania, jakie są
fakty – mówi Drzewiecki. Na pytanie, jaka jest
motywacja pracowników, najczęściej odwołujemy
się do opinii a nie faktów, generalizując, że jest
ona: mała, średnia lub duża. Odpowiednio
zadane pytanie o to, jaki procent pracowników
i kto konkretnie odczuwa brak satysfakcji,
pozwala określić problem i wprowadzić działania
naprawcze, które wzmocnią motywację
i zaangażowanie pracowników.
4. Mistrza wyróżnia stopień determinacji
– Mistrz zawsze dojdzie na szczyt. Znajdzie swoją
własną ścieżkę. Wynika to z jego determinacji.
Średniego gracza trzeba na ten szczyt wprowadzić
– mówi Kruczek. – To co charakteryzuje mistrzów
to właśnie determinacja do zwyciężania. Cierpliwość
i konsekwencja w pracy towarzyszą im na co dzień.
14. 14
Wokół Strategii Lean narosło szereg mitów,
które sprawiają, że jej wprowadzanie może wiązać
się ze sprzeciwem. Nie polega bowiem ona
na zmuszaniu ludzi do cięższej pracy. Nie sprawia
również, że zespół będzie pracował szybciej.
Rolą menedżera jest budowanie świadomości
celów, kreowanie atmosfery zaangażowania
i otwartości do zgłaszania problemów – wyjaśnia
Drzewiecki. Praktyka wskazuje, że najczęściej
menedżer okazuje szacunek swoim pracownikom
poprzez sam kontakt z procesem, współuczestnictwo
i obserwowanie postępów.
5. Skok to nie tylko moment wybicia z progu
– Każdy skok to proces złożony z wielu bardzo
ważnych elementów, a nie tylko moment wybicia
z progu – mówi na koniec Łukasz Kruczek.
Dlatego jestem zwolennikiem codziennego trenowania
i nieustannego szukania problemów. Zostawiamy
szerokie pole do eksperymentowania i poszukiwania
nowych rozwiązań, które mogą zdecydować
o zwycięstwie. Nie mam tu na myśli tylko pracy
skoczka, ale również spraw najprostszych – kształtu
i wygody buta, stosowanej diety, układu wiązania.
Wydaje się oczywiste, że doskonalenie zespołu
to nieustający proces, a nie kolejny projekt,
za który jest odpowiedzialny określony dział
w firmie. Drzewiecki konkluduje: Powodzenie
Strategii Lean jest możliwe tylko wtedy, gdy
wszyscy pracownicy są zaangażowani w proces
doskonalenia. Najczęstszy błąd menedżerów polega
na przekonaniu, że wystarczy powołać komórkę
ds. Lean, a samemu można skoncentrować się
na prowadzeniu biznesu.
* Instytut Gallupa (ang. The Gallup Organization) – najstarszy instytut badania opinii społecznej na świecie
dostarczający różnorodnych informacji na temat opinii publicznej w kwestiach aktualnych wydarzeń.
15. 15
Redukcja kosztów w IT
Nie dopuść do tego, aby polityka firmy
powstrzymała realizację inicjatyw mających
na celu redukcję kosztów IT
Konflikty pomiędzy bezpośrednimi podwładnymi
CIO, bardzo często wynikające z faktu, że każdy
z nich broni swojego terytorium, mogą udaremnić
plany redukcji kosztów związanych z utrzymaniem
i zarządzaniem funkcją IT w firmie. Bez względu
na koniunkturę gospodarczą, dyrektorzy IT
muszą bardzo często realizować projekty
optymalizacji kosztów.
Konieczność redukowania kosztów IT wynika
nierzadko z ogromnej presji finansowej lub
konkurencyjnej – ponieważ wyniki spółki
w danym kwartale nie są najlepsze, prezes
domaga się redukcji kosztów w całym
przedsiębiorstwie, aby uspokoić udziałowców.
Niekiedy inicjatywy mające na celu
optymalizację kosztów IT podejmowane są
przez CIO w ramach wprowadzanych przez nich
zmian lub w celu wykazania ich bezpośredniego
wpływu na organizację funkcji IT. Zdarza się
również, że CIO dąży do wyeliminowania
określonych wydatków w celu pozyskania
środków na nową inwestycję.
Identyfikacja możliwości ograniczenia kosztów
w obszarze IT jest stosunkowo prostym zadaniem,
czego nie można już niestety powiedzieć
o samej jego realizacji. Jak przekonuje Anthony
Stephan, dyrektor działu Technology Strategy
& Architecture w Deloitte Consulting LLP, polityka
organizacyjna, sprzeczne priorytety czy brak
dedykowanych zasobów sprawiają, że realizacja
wielu inicjatyw z zakresu redukcji kosztów IT
jest opóźniona, zaniechana lub nie przynosi
oczekiwanych rezultatów.
Walka o wpływy wewnątrz organizacji może
okazać się najpoważniejszym wyzwaniem
stojącym przed CIO. Konieczność ograniczania
kosztów przeraża nawet najbardziej trzeźwo
myślących pracowników działu IT. Ich obawy
związane są przede wszystkim z możliwością
negatywnego wpływu projektów optymalizacyjnych
na ich wizerunek liderów. Z tego też względu
podejmują często działania o charakterze
samozachowawczym, które mogą zniwelować
najlepsze intencje CIO.
Istnieje wiele sposobów przeciwdziałania
oporowi oraz zachowaniom samozachowawczym
pracowników. Już na samym początku CIO może
przybrać łagodny ton, ogłosić, że inicjatywa ma
strategiczne znaczenie dla przedsiębiorstwa,
wyznaczyć jasne, mierzalne cele czy też
wprowadzić system zachęt dla pracowników.
Nie pokazuj jak bardzo ci zależy
Stephan twierdzi, że polecenie cięcia kosztów
informatycznych wydane CIO przez prezesa
lub dyrektora finansowego firmy wywiera na
niego ogromną presję. CIO czują bezpośrednią
presję, ponieważ wyznaczane im cele są
zazwyczaj niezwykle ambitne i sprzeczne
z innymi projektami o charakterze doraźnym.
W rezultacie, ich stres często udziela się
podwładnym – zauważa Stephan.
Osoby, które nie potrafią zapanować nad
nerwami, potęgują jednak dodatkowo uczucie
niepokoju wśród bezpośrednio podległych im
pracowników, w wyniku, czego zaczynają oni
kierować się instynktem samozachowawczym.
Zdaniem Stephana, poczucie lęku w środowisku
pracy staje się problematyczne z dwóch
względów. Po pierwsze, źle wpływa na
produktywność. Bezpośredni podwładni CIO
tracą cenny czas aby „ratować swoją skórę”
zamiast podjąć działania związane z redukcją
kosztów. Po drugie, wypracowanie wspólnego
podejścia oraz budowanie zaangażowania
zespołu wymaga dodatkowego trudu.
16. 16
Jeśli CIO rozpoczyna projekt w napiętej atmosferze,
dążąc następnie do osiągnięcia określonego
wyniku, konieczne jest wyeliminowanie źródła
niepokoju oraz budowanie pasji i optymizmu
związanego z realizacją projektu – podkreśla
Stephan. Niepokój, który początkowo towarzyszy
podwładnym zaangażowanym w realizację
projektu, sprawia, że jest im trudniej wyrazić
poparcie dla wizji dyrektora, bez względu na to,
jak bardzo jest ona przekonująca.
Nadaj projektom odpowiednie znaczenie
Zdaniem Stephana, to, czy dana inicjatywa
przyniesie spodziewane efekty, zależy przede
wszystkim od zdolności przywódczych osoby
zarządzającej działem IT, a w szczególności
od umiejętności przedstawienia wizji projektu
w przekonujący sposób. W wielu przypadkach
niezbędne jest „odczarowanie” cięcia kosztów
w taki sposób, aby nie było ono postrzegane
wyłącznie jako bezwzględne działanie mające
na celu ograniczenie zatrudnienia, ale jako
strategiczna inicjatywa umożliwiająca rozwój
nie tylko działu IT, ale również całej firmy.
Informując pracowników o projektach mających
na celu redukcję kosztów informatycznych,
CIO powinni skupić się na najważniejszym
celu, jakim jest zwiększanie możliwości
rozwojowych oraz wspieranie innowacyjności
przedsiębiorstwa. Powinni również pokazać, w jaki
sposób konkretne działania, jakie mają zamiar
zrealizować, uatrakcyjnią pracę działu lub zdejmą
z pracowników ciężar wykonywania niektórych
obowiązków towarzyszących ich codziennej pracy
– tłumaczy Stephan.
Rzecz jasna, zmiana negatywnego postrzegania
przez pracowników inicjatyw mających na celu
redukcję kosztów IT wymaga od CIO pewnej siebie
postawy oraz przekazywania spójnych informacji.
Nie wystarczy poinformować pracowników
o planowanym projekcie optymalizacji kosztów
jednorazowo, na jego początku – dodaje Stephan.
Przekaz ten należy wzmacniać w całym okresie
jego realizacji.
Wyznacz jasne cele
Baris Sarer, starszy menedżer w dziale Technology
Strategy & Architecture Deloitte Consulting LLP,
proponuje, aby CIO wyznaczali jasne cele w zakresie
cięcia kosztów dla każdego obszaru podległej
im funkcji wraz z terminami ich realizacji, a także
monitorowali osiągane w tym zakresie postępy.
I chociaż taka wskazówka może wydawać się
trywialna, Sarer i Stephan twierdzą, że w praktyce
niewielu dyrektorów IT się nią kieruje.
Dyrektorzy ds. informatyki potrafią zazwyczaj
przedstawić uzasadnienie biznesowe projektu
redukcji kosztów. Zdarza się jednak, że nie
monitorują rezultatów w trakcie jego realizacji,
co stanowi jedną z największych przeszkód
na drodze do sukcesu – twierdzi Sarer.
Zdaniem Sarera, równie ważne jest określenie
strat, na jakie dział informatyczny jest narażony
na skutek odwlekania decyzji lub działań
związanych z realizacją określonych inicjatyw
mających na celu optymalizację kosztów.
W przypadku klienta rozważającego możliwość
skorzystania z usług outsourcingowych
świadczonych przez podmiot zagraniczny, kwota
ta wynosiła 100.000 dolarów tygodniowo.
Przy takim poziomie szczegółowości w odniesieniu
do potencjalnej redukcji kosztów oraz oszczędności,
można z łatwością wyznaczyć cele, które
pracownicy powinni osiągnąć – twierdzi Sarer.
Nawet jeśli pracownicy czują się zagrożeni, mają
wyznaczony wspólny cel. Bieżące monitorowanie
działań podejmowanych w tym zakresie sprawia,
że jest im trudniej zlekceważyć nałożone
na nich obowiązki.
17. 17
System zachęt: pieniądze motywują
do działania
Zachęty finansowe są skutecznym narzędziem,
które CIO mogą zastosować, aby zapobiec ostremu
sprzeciwowi oraz walkom o wpływy, skupiając
jednocześnie uwagę pracowników na konieczności
osiągnięcia celów z zakresu optymalizacji kosztów.
Jeśli inicjatywa mająca na celu cięcie kosztów
koliduje z bieżącą pracą osób pełniących funkcje
kierownicze w dziale IT i nie zostanie uwzględniona
w planach motywacyjnych, osoby te nie będą
szczególnie zainteresowane jej realizacją – zauważa
Sarer. Początkowo mogą podjąć pewne działania
mające na celu ograniczenie kosztów, ale realizacja
całego programu, od analizy po osiągnięcie
zamierzonych korzyści, wymaga wprowadzenia
odpowiedniego systemu zachęt.
Ludzie są w stanie zrobić bardzo wiele,
jeśli ich premia zostanie uzależniona od
osiąganych wyników oraz realizacji inicjatywy
o charakterze strategicznym – dodaje Stephan.
Nie zachowują się już jak ofiary, ale jak zwycięzcy.
Zamiast przyjmować pozycję obronną, konkurują
ze sobą, aby osiągnąć jak najlepsze rezultaty.
Systemy motywacyjne związane z osiąganymi
wynikami potrafią zdziałać cuda.
Dodatkowe informacje: „When Should You Restructure IT”, „5 Steps to IT Restructuring Success”
Tłumaczenie artykułu, który ukazał się 26 sierpnia 2014 r. na stronie: http://deloitte.wsj.com/cio/
18. 18
Jak mierzyć efektywność IT
Stanisław Matczak
Efektywność – to takie ładne słowo…
Wszyscy chcieliby, żeby praca – zarówno osobista,
jak i działanie całej firmy czy organizacji – była
efektywna. Wysoka efektywność z reguły związana
jest ze sprawnym działaniem, brakiem marnowania
czasu na niepotrzebne aktywności, skupieniem
się na tym co najważniejsze, dostarczaniem
właściwych rezultatów czy produktów, wysoką
motywacją do pracy, oraz – last but not least –
dochodowością przedsiębiorstwa.
To wszystko brzmi pięknie – natomiast kiedy
próbujemy odpowiedzieć na pytanie, czy praca
naszych działów czy zespołów wytwarzających
oprogramowanie jest efektywna, to z reguły
pojawia się problem. A jeszcze większy problem
pojawia się w momencie, kiedy chcemy tą
efektywność jakoś zmierzyć…
Po co nam mierzenie efektywności?
Zanim przejdziemy do samego mierzenia, dobrze
jest zastanowić się przez chwilę po co jest nam
potrzebna miara naszej efektywności. Jaka jest
nasza motywacja do tego, aby inwestować w to
mierzenie – bo tak naprawdę podwody mierzenia
efektywności mogą być bardzo różne.
Być może chcemy mierzyć efektywność, po to,
aby pochwalić się w jakimiś ładnymi liczbami
czy wskaźnikami w jakimś raporcie. W tym
przypadku nie trzeba się mocno zastanawiać nad
wyborem metody mierzenia – bierzemy po prostu
taką metodę, która da nam najlepsze wyniki.
I cieszymy się tym wynikami do czasu, aż ktoś
nie zacznie drążyć, co tak naprawdę się za tymi
wskaźnikami kryje…
Być może mamy kilka osób czy zespołów, które
pracują razem i chcemy porównać ich efektywność
ze sobą – po to, aby nagrodzić najlepszych
i dać sygnał „hej, powinniście się poprawić”
tym gorszym. W tym przypadku musimy być
szczególnie ostrożni z wyborem metody pomiaru.
Informatycy (wbrew pozorom) nie są głupi
i wybranie złej metody oceniania będzie miało
dwie konsekwencje. Po pierwsze spowoduje efekt
odwrotny do zamierzonego, czyli demotywację
pracowników: „po co mam się starać w pracy, skoro
jestem oceniany przez tak idiotyczne kryteria?”.
A po drugie, bardzo szybko pracownicy nauczą
się tak organizować swoją pracę, aby raportować
wysokie wskaźniki efektywności, nawet jeżeli ich
praca nie będzie efektywna…
I jest jeszcze jedna motywacja – w moim odczuciu
najbardziej sensowna. W wielu firmach podejmowane
są różnorakie wysiłki mające na celu zwiększenie
efektywności pracy. Wprowadzanie tych zmian
zawsze wiąże się z jakimiś kosztami – albo są
to koszty bezpośrednie, albo pośrednie, kiedy
to musimy zmienić nasze przyzwyczajenia,
wprowadzić jakieś nowe narzędzie, przekonać
się do niego… I tak naprawdę czasami trudno
jest stwierdzić, czy wprowadzenie danej
zmiany przyniosło więcej kosztu czy pożytku.
Ba, często różne osoby mają różne zdania na
temat tej samej zmiany: „wprowadzenie wiki
pomogło nam aktualizować na bieżąco naszą
dokumentację” vs. „wprowadzenie wiki sprawiło,
że mamy dodatkową robotę z utrzymywaniem tego
narzędzia”. Dlatego też dobrze byłoby zmierzyć,
czy po wprowadzeniu zmiany efektywność pracy
faktycznie nam wzrosła. Czy faktycznie jest lepiej –
bo może też być tak, że koszty zmiany przeważają
nad zyskami z jej wprowadzenia.
Problem z licznikiem równania
Jeżeli mamy coś mierzyć, to najlepiej jest zacząć
od określenia definicji wartości mierzonej…
Proponuję wziąć najprostszą definicję efektywności,
która mówi, że efektywność można określić
jako stosunek uzyskanych efektów (na przykład
wytworzonych produktów) do poniesionych
nakładów (najczęściej włożonej pracy lub kapitału).
19. 19
Im więcej wytwarzamy – tym efektywność jest
większa. Im większy jest koszt wytwarzania –
tym efektywność mniejsza. Banalne, nieprawdaż?
Mając takie równanie, z reguły w projektach IT
nie mamy większych problemów z określeniem jego
mianownika. Koszt wytworzenia oprogramowania
możemy bardzo łatwo zmierzyć w poniesionych
wydatkach (np. koszt sprzętu) oraz w czasie pracy,
który również możemy przeliczyć na pieniądze.
Problem natomiast pojawia się w mierzeniu efektu
pracy – jaka jest „wartość” czy „ilość” stworzonego
przez nas oprogramowania. Jak ją zmierzyć?
I tutaj właśnie zaczynają się schody…
Próbujemy coś zmierzyć od strony klienta…
Pierwszym pomysłem jest określenie wartości
oprogramowania z perspektywy klienta. Czyli
próba odpowiedzi na pytanie: co nowy system
(albo zmiana w istniejącym systemie) daje
klientowi? Na ile klient wycenia taką zmianę?
I tutaj trafiamy na pierwszy problem: wartość
oprogramowania dla klienta jest czasami zupełnie
niewspółmierna do nakładów koniecznych do
wytworzenia tego oprogramowania! Może być
tak, że to, co klient zamawia, można mieć „prawie
za darmo” – możemy to wykonać używając
gotowego i darmowego systemu lub składając
razem kilka dostępnych komponentów. Tak może
być na przykład przy tworzeniu prostych serwisów
internetowych – jeżeli klient chce założyć sobie
bloga firmowego, to można taki serwis stworzyć
w ciągu pół godziny. Ale może też być tak,
że klient wymaga implementacji specyficznych
funkcjonalności w specyficznej technologii
(np. wymaga zmiany w systemie, który jest
napisany specjalnie dla niego) i tutaj koszt zmiany
jest duży. Może być też tak, że stosunkowo prosta
zmiana wymaga upgrade’u lub wymiany całego
systemu, z którego korzysta klient – a wtedy
koszt jest ogromny…
Co więcej, nawet w ramach zmian w obrębie
jednego systemu, niektóre zmiany mogą być
wprowadzone względnie łatwo (bo jest to
np. zmiana parametryzacji), natomiast inne
zmiany wymagają głębokiej przebudowy tego
systemu. Czasami rodzi to sporą konfuzję po
stronie klienta – skoro zmiana A kosztuje mnie
1 jednostkę czasu/pieniędzy, to dlaczego
porównywalna funkcjonalnie zmiana B ma mnie
kosztować 100 takich jednostek?
Kod posiada linie
Skoro nie udało nam się wyprowadzić jednostki
wartości oprogramowania od strony klienta,
to może zmieńmy punkt widzenia i spróbujmy
spojrzeć na problem od strony technologicznej?
Metodą pomiaru ilości pracy, która była kiedyś
popularna i czasami jeszcze powraca w różnych
kontekstach, jest liczenie linii kodu tworzonych
przez programistę. Pomysł na pozór wydaje się
bardzo kuszący – ilość linii kodu jest to metryka
bardzo prosta do pomiaru, intuicyjna, zrozumiała
(nawet dla menedżerów…) oraz w pewien sposób
związana z dostarczanymi funkcjonalnościami.
Nic, tylko wziąć i stosować.
Tyle, że tak naprawdę średnio zdolny programista
jest w stanie wyprodukować dowolną ilość linii
kodu w ciągu dnia i, co więcej, wytworzony w ten
sposób kod przy pierwszej konieczności jego
zmiany, będzie nadawał się tylko i wyłącznie
do wyrzucenia i napisania na nowo… Często
też praca najzdolniejszych programistów
polega na refaktoryzacji kodu, w wyniku czego
otrzymujemy… ujemną liczbę stworzonych linii
kodu. Nie rozwijając tego tematu – ocenie
efektywności pracy programisty poprzez ilość
napisanych linii kodu mówimy nasze stanowcze
i zdecydowanie „nie”. A więcej o różnych aspektach
pomiarów linii kodu można przeczytać na przykład
tutaj: „It’s Not About Lines of Code”.
20. 20
Takie różne pointy…
Jeżeli nie linie kodu są miarą wartości
oprogramowania, to co? Dawno, dawno temu,
bo już w 1979 pojawiła się koncepcja obliczania
punktów funkcyjnych (Function Point Analysis –
FPA), czyli liczenia wartości, która ma wyrażać
złożoność oraz wartość oprogramowania. Koncepcja
jest ciekawa, pojawiają się w niej definicje, wzory,
algorytmy i wszystko wygląda bardzo mądrze
i naukowo… Tylko że, tak jak podobno ta metoda
jest popularna w USA, tak w Polsce nie spotkałem
się z żadnym projektem, który by tę metodę
stosował. Wpadamy tutaj trochę w błędne
koło: nie stosujemy punktów funkcyjnych,
bo nie widzimy z tego korzyści; nie widzimy
korzyści z punktów funkcyjnych, bo ich nie
stosujemy. Więcej o punktach funkcyjnych można
przeczytać np. w pracy Ewy Magiery. A jeżeli
ktoś próbował kiedyś stosować punkty funkcyjne
w jakimś praktycznym projekcie – będę wdzięczny
za kontakt i podzielenie się doświadczeniami…
Koncepcją z pozoru troszkę podobną do punktów
funkcyjnych są story points stosowane w metodykach
lekkich, np. w Scrumie. Podobieństwo polega na
tym, że zarówno punkty funkcyjne, jak i story
points, są to wartości bezwymiarowe, to znaczy
nie mające bezpośredniego przełożenia na
czas czy koszt wytworzenia oprogramowania.
Ale zupełnie inna jest filozofia wyznaczania
tych wartości. Za punktami funkcyjnymi stoją
pomiary i wyliczenia – czyli podejście inżynierskie:
„Zmierzmy w naszym systemie wejścia, wyjścia,
pliki, interfejsy i inne cuda, a potem wyliczmy z tego
złożoność oprogramowania używając do tego
bardzo skomplikowanych wzorów”. Koncepcja
wyznaczania story points wychodzi z diametralnie
innego założenia i mówi tak: „Te wszystkie pomiary
są bardzo pracochłonne i żmudne, a ich wynik
jest nie zawsze pewny. Dlatego też dajmy sobie
spokój z tym mierzeniem, zrezygnujemy z pięknych
teorii, które w praktyce nie działają i bazujmy
na doświadczeniu naszego zespołu, który już pewne
zmiany wykonał i potrafi szacować, ile następne
zmiany zajmą nam czasu”.
Story points sprawdzają się bardzo dobrze
w projektach prowadzonych za pomocą metodyk
lekkich i pozwalają na branie do iteracji
odpowiedniej ilości zadań oraz pozwalają
na oszacowanie, ile iteracji pozostało nam
do końca projektu. Ale nie są one wskaźnikiem,
który pozwala na porównywanie między sobą
zespołów, które pracują nad różnymi systemami
i w różnych technologiach, ani też nie wskażą
nam efektywności całej organizacji.
A może nie mierzyć wcale?
I w tym momencie wiele osób mówi tak: story
points u nas nie zadziałają, bo nie jesteśmy
Scrumowi. Nie chcemy albo nie mamy czasu
na eksperymenty z punktami funkcyjnymi.
Żadnych innych sensownych miar też nie udało
nam się skonstruować. No to trudno, zróbmy
inaczej. Zrezygnujmy z mierzenia efektywności całej
organizacji – zamiast tego uwierzmy w to, że nasze
subiektywne poczucie „na ile jest dobrze” jest
prawdziwe. Starajmy się poprawić efektywność tam,
gdzie widzimy problemy. Natomiast jeżeli chodzi
o ocenę efektywności pracy poszczególnych osób –
niech zajmą się tym ich bezpośredni przełożeni.
Kierownik przydziela swoim pracownikom zadania,
niech zatem również ocenia, czy pracownik
wykonuje te zadania efektywnie.
Takie podejście jest stosowane w wielu firmach –
ale zauważmy, że takie rozwiązanie wymaga,
aby kierownik zespołu posiadał co najmniej taki
sam poziom wiedzy i umiejętności technicznych
co jego podwładni. A nie zawsze tak jest – często
bywa tak, że kierownik zespołu zarządza zadaniami,
współpracuje z klientem, sporządza różne raporty
i robi milion innych rzeczy, które sprawiają,
że nie nadąża w rozwoju technicznym za swoimi
21. 21
podwładnymi. Dotykamy tutaj skomplikowanej
kwestii roli kierownika w zespole IT – bo bardzo
często oczekuje się, że ma być to osoba, która
będzie super-programistą, znawcą wszystkich
niuansów systemu, wyrocznią architektoniczną,
a jednocześnie będzie to osoba zapewniająca
skuteczną komunikację, prezentująca wizje,
pracująca nad motywacją zespołu, zapewniająca
coaching pracowników, zarządzająca konfliktami,
oceniająca wyniki pracy, dbająca o rozwój zespołu
i robiąca masę innych rzeczy. W pewnym momencie
trzeba podjąć decyzję – czy kierownik zespołu
ma bardziej rozwijać się w kierunku technicznym
(jest wtedy super-programistą i ocena efektywności
pracy podwładnych jest dla niego o tyle prosta,
że robi na co dzień to samo), czy też może ma się
rozwijać bardziej w kierunku zarządzania (wtedy
prowadzi zespół, ale niekonieczne może być w stanie
ocenić efektywność pracy podwładnych, bo ci mogą
mieć większą wiedzę techniczną od niego).
I na zakończenie…
Zaczęliśmy od efektywności, a skończyliśmy
na oczekiwaniach co do kierownika zespołu…
Znak to, że pora już kończyć ten tekst.
I na koniec o jeszcze jednym sposobie mierzenia
i „poprawiania” efektywności. W pewnej
małej firmie normą pracy programisty była
ilość spędzonych godzin przy pisaniu kodu.
A żeby dopilnować postępów pracy, właściciel
firmy co jakiś czas wpadał do pokoju programistów
i sprawdzał, czy wszyscy mają ręce na klawiaturach
i stukają w klawisze… Historia wydaje się
absurdalna, ale jest, niestety, prawdziwa.
A czy w Twoim zespole czy firmie stosuje się
jakiś pomiar efektywności pracy? Jeżeli tak –
będę wdzięczny za przesłanie informacji o nim
na mojego maila (dostasia@gmail.com).
Stanisław Matczak
Od początku swojej kariery zawodowej pracuje przy rozwoju i utrzymaniu dużych systemów informatycznych.
W przeszłości analityk, programista, projektant, project manager, lider zespołów. Obecnie kierownik zespołu
odpowiedzialnego za optymalizacje systemów informatycznych w Nordea IT Polska.
Założyciel i współtwórca portalu „Trzecia kawa” (www.trzeciakawa.pl), który gromadzi artykuły dotyczące różnych
zagadnień wytwarzania oprogramowania.
Prywatnie zajmuje się prowadzeniem warsztatów komunikacyjnych dla małżeństw i jest fanem nocnych imprez na orientację.
Artykuł pierwotnie ukazał się na blogu: http://www.trzeciakawa.pl/
22. 22
Efektywne zarządzanie informacją
to największy kapitał w biznesie
Europejscy managerowie w międzynarodowym
badaniu firmy Canon na temat znaczenia informacji
Rafał Jakubowski
Wyszkolona produktywność
Jak wynika z raportu przygotowanego na zlecenie
Canon, pracownicy w przedsiębiorstwach –
bez względu na wielkość organizacji, sektor
gospodarki oraz jej lokalizację geograficzną –
w coraz większym stopniu czują się przytłoczeni
ilością informacji, z którą mają do czynienia
podczas wykonywania codziennych obowiązków.
To niestety przekłada się na procesy biznesowe,
które stają się coraz mniej efektywne. Badanie
wykazało, że istnieją trzy podstawowe czynniki
wpływające na produktywność: sformalizowane
szkolenia, standardowe procesy oraz centralne
systemy pamięci masowych.
Spośród tych trzech, kluczową rolę odgrywają
szkolenia – w szczególności dotyczące tego,
w jaki sposób optymalnie wykorzystywać
technologie biznesowe, a także jak przechowywać
i współdzielić informacje. Mają one największe
znaczenie dla pracowników na niższych szczeblach
hierarchii organizacyjnej. Nieco mniejszą wagę
przypisują im właściciele firm i przedstawiciele
zarządów. Ich zdaniem, dla zwiększania
produktywności równie ważne co szkolenia (39%)
są protokoły przechowywania i współdzielenia
informacji oraz ich realizacja w praktyce (37%).
Pracownicy, którzy swoje obowiązki wykonują zdalnie
większą rolę przypisują standardowym sposobom
przechowywania informacji i zarządzania nimi.
Biorąc to pod uwagę, wydaje się, że ta sytuacja
to doskonała okazja dla CIO na przejęcie sterów
w organizacji w obszarze systemów zarządzania
informacją. Z wniosków zawartych w raporcie
ICM dla firmy Canon wynika, że zwiększenie
produktywności można zrealizować w trzech
stosunkowo prostych krokach:
Przedsiębiorstwa na całym świecie stoją przed wyzwaniem codziennego przetwarzania rosnącej
ilości informacji. Jednak niektóre firmy radzą sobie w tej sytuacji lepiej niż inne, osiągając
korzyści dla organizacji. Zarządzają one informacjami w taki sposób, że wzrasta produktywność,
a biznes lepiej odpowiada na potrzeby klientów. Kluczowe znaczenie mają dla osiągnięcia
tego celu sformalizowane szkolenia pracowników z wykorzystania technologii biznesowych
oraz standaryzacja procesów i praktyk – m.in. takie wnioski płyną z badania przeprowadzonego
przez brytyjski instytut ICM na zlecenie firmy Canon na grupie 3800 managerów w całej
Europie. Celem projektu było zidentyfikowanie czynników kształtujących produktywność,
poznanie relacji pomiędzy zarządzaniem informacjami a wynikami finansowymi firmy
oraz znaczenia standardowych procesów i praktyk biurowych dla efektywności, a także
odkrycie tego, co ogranicza zwrot z inwestycji w rozwiązania IT. Analiza danych pozwoliła
na wyodrębnienie czterech kluczowych zagadnień.
23. 23
• wprowadzając lub rozbudowując
sformalizowane programy szkoleń pracowników,
• działając na rzecz standaryzacji procesów,
• wdrażając scentralizowane systemy pamięci
masowych.
Informacja to pieniądz
Relacja łącząca informacje z zyskownością to
kluczowy element wpływający na efektywność
organizacji. Pracownicy na wszystkich szczeblach
powinni mieć świadomość, że wszelkie
podejmowane przez nich działania, w których
centrum znajduje się informacja, mają kluczowe
znaczenie dla zwiększania zyskowności
przedsiębiorstwa.
Badanie ICM na zlecenie Canon pokazuje,
że im niższy szczebel organizacyjnej hierarchii,
tym mniejsze zrozumienie związku, jaki zachodzi
pomiędzy informacjami a zyskiem. Jednocześnie,
stosunkowo niska świadomość tej relacji
charakteryzuje pracowników wykonujących swoje
obowiązki zdalnie oraz pracowników sektora
edukacyjnego i ochrony zdrowia.
Z badań wynika, że tylko nieco ponad połowa
pracowników na niższych stanowiskach
rozumie wpływ informacji na zyski. To oznacza,
że przedsiębiorstwa mają jeszcze spore
możliwości do zwiększania swoich zysków,
pod warunkiem, że zapewnią swoim pracownikom
szkolenia koncentrujące się wokół kwestii informacji
oraz danych posiadanych przez organizację.
Co ciekawe, pracownicy, którzy zostali przeszkoleni
w zakresie technologii biznesowych oraz
zarządzania informacjami o wiele częściej zdają
sobie sprawę z relacji pomiędzy informacjami
a zyskami niż osoby, które nie uczestniczyły
w szkoleniach. Jednocześnie, im szkoleń było
więcej tym były bardziej treściwe.
Priorytety:
większa
produktywność
27%
procesy/
protokoły
52%
szkolenia
pracowników
systemy pamięci
masowych
22%
Źródło: Badanie instytutu ICM na zlecenie firmy Canon
Badanie
Badanie wykonała brytyjska firma ICM na zlecenie
firmy Canon. W ramach projektu przeprowadzono
3,8 tys. wywiadów w 24 krajach Europy, Azji oraz
Afryki (w tym 200 wywiadów w Czechach, na Słowacji
i Węgrzech oraz w Polsce). Większość badanych to
pracownicy biurowi na niższych i średnich szczeblach
hierarchii organizacyjnej w małych i średnich firmach
(tylko 24% badanych to firmy zatrudniające powyżej
5 tys. pracowników) zajmujący się obsługą klienta,
sprzedażą i marketingiem, finansami i księgowością,
zasobami ludzkimi, kwestiami administracyjnymi
oraz innymi.
24. 24
Maksymalny ROI
Tylko nieco ponad połowa ankietowanych
wie, jak wykorzystać w pełni technologie
biznesowe.
Co więcej, blisko połowa uważa,
że odpowiedzialność za nauczenie się
korzystania z technologii biurowych spoczywa
na użytkownikach końcowych i pracownikach.
Podobna liczba bazuje na szkoleniach
technologicznych organizowanych
przez zewnętrzne podmioty.
Jedna osoba na trzy przyznaje, że nie
została formalnie przeszkolona w zakresie
przechowywania i zarządzania informacjami.
Dotyczy to w szczególności mniejszych
organizacji oraz pracowników, którzy
większość obowiązków wykonują poza
biurem. 36% pracowników zdalnych twierdzi,
że nie uczestniczy w szkoleniach, ponieważ
nie pracuje na co dzień w biurze.
Największe zaniedbania, a zarazem największy
potencjał mają szkolenia koncentrujące się
wokół oprogramowania i procedur związanych
z bezpieczeństwem. Ponad połowa ankietowanych
nie została objęta szkoleniami w tym obszarze.
Brak sformalizowanych szkoleń może często
oznaczać, że technologia nie jest w pełni
zoptymalizowana. To jednocześnie okazja
do lepszego zarządzania procesami i implementacji
standardów postępowania mających na celu
zwiększenie efektywności.
Źródło: Badanie instytutu ICM na zlecenie firmy Canon
64%
70% 71% 72% 73%
Rozumie, w jaki
sposób wytwarzane
lub przetwarzane
informacje wpływają
na zyskowność
organizacji
(57% ankietowanych na niższych
stanowiskach nie-kierowniczych)
Zrozumienie relacji w grupie osób, które zostały przeszkolone w zakresie:
znaczenia
informacji i danych
dla organizacji
obsługi systemów
zarządzania
dokumentami/
polityki
przechowywania
dokumentów
obsługi
oprogramowania
z zakresu
bezpieczeństwa/
polityki zapisywania
plików
procedur
przechowywania/
współdzielenia
informacji
25. 25
Biurowe standardy
Standardy praktyk biurowych mają fundamentalne
znaczenie dla zwiększania produktywności
przy wykorzystaniu technologii biznesowych.
Brak konsekwencji w tym obszarze oznacza
mniejszą produktywność działania. Według danych
zaprezentowanych przez firmę Canon zdecydowana
większość organizacji przechowuje informacje
na centralnych serwerach. Niestety jednocześnie
ponad 40% pracowników przechowuje
informacje na pojedynczych urządzeniach.
Dotyczy to w szczególności małych firm.
Ponad połowa badanych nie uważa, że systemy
pamięci masowych w ich organizacji są dobrze
zorganizowane i efektywne. Oceniają, że straty
czasowe z tym związane wahają się od 25
do 30 minut dziennie. Kluczowe problemy
to brak standardowych formatów papierowych
i niestandardowe sposoby zapisywania.
40% uważa, że standardowe sposoby zapisywani
plików ułatwiłyby współdzielenie informacji.
Ponad połowa firm nie ma standardów
w obszarze nazywania plików, przechowywania
maili i udostępniania dokumentów
do przeszukiwania. Choć duże firmy posiadają
centralne serwery czy chmury, to pracownicy
są w mniejszym stopniu świadomi standardów
w obszarze nazywania i zapisywania plików.
7 na 10 ankietowanych odpowiada, że doświadczyło
problemów podczas poszukiwania starszych
dokumentów.
Standardowe procesy mają szczególne znaczenie
w przypadku pracowników zdalnych. Dwie trzecie
firm posiada takich właśnie pracowników. Większość
z nich przyznaje, że zdalny dostęp jest wystarczający,
ale brak procesów efektywnego zarządzania
współdzieleniem informacji prowadzi do utraty
informacji i przeładowania systemów pocztowych.
Charakterystyka regionalna i organizacyjna
W krajach Europy Północnej, Zachodniej i Środkowej przedsiębiorstwa posiadają technologie
do przechowywania i współdzielenia informacji, ale ich słabością są nieefektywne systemy
zarządzania informacją. W Rosji, w Afryce i na Bliskim Wschodzie mniejsza liczba organizacji
wykorzystuje scentralizowane systemy pamięci masowych, a brak standardowych praktyk
wpływa negatywnie na produktywność.
Małe firmy są stosunkowo dobrze wyposażone w technologie biznesowe, ale brakuje w nich
formalnych szkoleń dla pracowników. Kluczowe znaczenie dla optymalizacji współdzielenia
informacji mają w tej grupie działania zmierzające do rozwoju systemów pamięci masowych.
W dużych przedsiębiorstwach istnieją formalne szkolenia i technologie pozwalające przechowywać
informacje w centralnym systemie. Największe wyzwania dotyczą działań mających na celu
większą standaryzację pracy, która przełoży się na wzrost efektywności.
26. 26
Standaryzacja przepływu informacji oraz edukacja pracowników w zakresie wykorzystania
technologii biznesowych stanowią kluczowe czynniki wpływające na efektywność przedsiębiorstw
w 2015 roku. To główny wniosek badań opracowanych przez niezależny ośrodek badawczy ICM
na zlecenie firmy Canon. Dostrzegając zmiany w sposobie zarządzania, Canon podkreśla konieczność
wsparcia menedżerów w ich dążeniu do wypracowania nowej definicji efektywności opartej
na standaryzacji procesów, łatwym dostępie do danych oraz innowacyjnych technologiach.
Po pierwsze: optymalizacja
Pracownicy najniższego szczebla hierarchii organizacyjnej podkreślają potrzebę edukacji
w obszarze optymalnego wykorzystania technologii biznesowych w firmie. 1/3 badanych
przyznaje, że nie została formalnie przeszkolona w zakresie przechowywania informacji
i zarządzania nimi. To wyraźny sygnał dla CIO, którzy powinni traktować rozwój umiejętności
szeregowych pracowników w zakresie obiegu dokumentów, jako jeden z kluczowych elementów
poprawy efektywności funkcjonowania poszczególnych oddziałów i całej firmy.
Anna Krupińska,
Dyrektor Marketingu BIG w Canon Polska
Według danych zaprezentowanych przez firmę Canon
78%
organizacji
ma centralne serwery
do przechowywania informacji
przechowuje informacje
na indywidualnych urządzeniach
41%pracowników
minut
tyle czasu średnio każdego dnia
jest tracone na poszukiwanie
historycznych dokumentów
czytaj dalej
27. 27
Mając świadomość potrzeb przedsiębiorstw, Canon od lat rozwija i wdraża technologie
wspierające konsolidację infrastruktury druku i automatyzację procesu obiegu dokumentów.
Wpływają one na podniesienie efektywności i zyskowności procesów, m.in. poprzez oszczędność
materiałów czy czasu pracy. W związku z tym dyrektorzy ds. IT w bezpośredniej współpracy
np. z dyrektorem finansowym powinni wziąć większą odpowiedzialność za proces integracji
obszaru technologicznego i biznesowego firmy w oparciu o najnowsze narzędzia informatyczne.
Przyczyni się to do lepszego zrozumienia wymagań klienta zarówno przez top menedżerów,
jak i pracowników szczebla podstawowego.
Po drugie: dostępność
Popularność modelu BYOD (Bring Your Own Device) sprawiła, że rolą CIO w nowoczesnych
przedsiębiorstwie nie jest już „stanie na straży” informacji. Odpowiadają oni za tworzenie
pracownikom warunków do możliwie łatwego dostępu do danych, zwłaszcza jeśli wykonują
obowiązki poza biurem. Według raportu Canon, aż 2/3 ankietowanych firm zatrudnia personel
działający w terenie. Model współpracy oparty na integracji aplikacji i narzędzi biznesowych
umożliwiających dostępność danych off-line wymaga jednak zapewnienia szczególnego
bezpieczeństwa. Dlatego przy wyborze dostawcy tego typu usług, dyrektorzy IT powinni wziąć
pod uwagę z jednej strony niezawodność i innowacyjność proponowanych rozwiązań, z drugiej
zaś doświadczenie i ekspercką wiedzę dostawcy. Canon, jako partner biznesowy największych
światowych organizacji posiada ogromne doświadczenie we współpracy przy najbardziej
złożonych projektach i doskonale łączy najwyższą jakość technologiczną z praktyką.
Po trzecie: standaryzacja
O ile ogromna większość przebadanych podmiotów posiada centralne serwery lub korzysta
z rozwiązań chmurowych, o tyle aż 40% ankietowanych przechowuje informacje na pojedynczych
urządzeniach. Bez wspomnianej już optymalizacji technologicznej opartej na jasnych standardach
np. dla obiegu dokumentów, może to generować poważne problemy z archiwizacją, wyszukiwaniem
czy współdzieleniem firmowych danych.
Z przedstawionymi powyżej wyzwaniami muszą zmierzyć się praktycznie wszystkie organizacje
działające w erze cyfrowej transformacji. Praktyka wskazuje, że zastosowaniu innowacyjnych
technologii powinna towarzyszyć przejrzysta wizja zmian, której wprowadzenie stanowi obecnie
nadrzędny cel każdego nowoczesnego dyrektora odpowiedzialnego za procesy cyfrowe.
Jak możemy wspierać Twój sukces?
W Canon rozumiemy wyzwania związane z zarządzaniem dokumentacją
i informacjami, dlatego od lat wspieramy firmy w optymalizacji procesów
poprzez wdrożenie rozwiązań umożliwiających: konsolidację infrastruktury
druku i zarządzanie nią, automatyzację procesu obiegu dokumentów,
przechowywanie dokumentów, druk i dystrybucję.
Wierzymy bowiem, że wykorzystując potencjał technologii można zmieniać
organizacje i zwiększać ich efektywność.
Więcej inspiracji znajdą Państwo na blogu Canon BUSINESS BYTES.
Wojciech Wyszyński
Sales&Business Development Manager
Canon Business Services
Canon Polska
Tel. + 48 22 500 21 44
e-mail: Wojciech.wyszynski@canon.pl
Zachęcamy do kontaktu z naszym przedstawicielem
oraz śledzenia naszych kanałów społecznościowych:
28. 28
Przewaga dzięki specjalizacji
Badania na temat wykorzystania systemów APS
do wsparcia procesu planowania produkcji
Piotr Rojek, DSR Sp z o.o.
Klasyczny system ERP pozwala jedynie na
podstawowe harmonogramowanie produkcji
nawet w średnio skomplikowanych procesach
wytwórczych. Częstym obejściem stosowanym
przez planistów, aby „wycisnąć” jak najwięcej
z ERP, jest ograniczenie harmonogramowania
tylko do wybranych poziomów w strukturze
złożenia produktu (Bill Of Material1
). Korzyści
systemu specjalizowanego APS są zauważalne
praktycznie „od ręki”, ponieważ pozwalają
wyeliminować koszty związane z „ręcznym”
układaniem planów i przestojami. Zwiększają
elastyczność planowania produkcji dając możliwość
realizacji zleceń specjalnych. Wpływają również
na lepszą obsługę klientów zapewniając
szczegółową informację dla odbiorców.
Umożliwiają także pełne dostosowanie pracy
personelu do faktycznych potrzeb.
1 Bill of Material – zapis drzewiastej struktury produktu –
od drobnych elementów na najniższym poziomie,
poprzez półprodukty które na końcu „schodzą” się
w produkt gotowy.
Główne wnioski wynikające z badania
Spółka DSR, czołowy dostawca rozwiązań
informatycznych dla firm produkcyjnych,
przeprowadziła badania wśród firm z sektora
wytwórczego dotyczące korzyści wynikających
z krótkoterminowego planowania produkcji.
Analizie poddano również narzędzia informatyczne
stosowane do wsparcia tego procesu. Wyniki
diagnozy pokazują standardy planowania produkcji
w polskich przedsiębiorstwach, a także wskazują
na potrzeby spółek produkcyjnych w tym obszarze.
• Kluczową korzyścią, której spodziewają się
użytkownicy tworzący plany produkcji w oparciu
o narzędzia IT jest zachowanie odpowiedniej
terminowości. Przyznało tak ¾ respondentów.
• Dla 46% respondentów minimalizacja kosztów
jest szczególnie istotnym czynnikiem
wynikającym z wprowadzenia rozwiązań
do krótkoterminowego planowania produkcji.
• Rośnie wykorzystanie zaawansowanych aplikacji
do harmonogramowania produkcji klasy APS,
które posiada 13% ankietowanych firm.
• Systemy ERP wspierają jedynie główne
planowanie produkcji (63%) oraz tradycyjne
planowanie potrzeb materiałowych (60%).
Powszechne zastosowanie systemów wspomagających zarządzanie klasy ERP spowodowało,
że firmy zbudowały podstawy sprawnego środowiska wymiany informacji w przedsiębiorstwie.
W tym momencie pada pytanie o faktyczną optymalizację kluczowych procesów organizacyjnych
w kontekście budowania przewagi nad konkurencją. W sytuacji, gdy wszystkie firmy dysponują
podobnymi rozwiązaniami o większej skuteczności procesów decydują specjalizowane aplikacje
dziedzinowe. Pokazują to przykłady firm produkcyjnych, które budują skuteczne środowisko wsparcia
biznesu oparte na aplikacjach wspomagających kluczowe obszary, takie jak planowanie produkcji.
29. 29
Planowanie na kilka etatów
Według opinii 38% przedstawicieli firm
uczestniczących w badaniach, w proces
tworzenia krótkookresowego planu produkcji
jest zaangażowanych 4-5 lub więcej osób.
Niemal połowa respondentów przyznała,
że do tego zadania zatrudnia 2-3 osoby.
Menedżerowie odpowiedzialni za planowanie
produkcji muszą sprostać licznym wyzwaniom
wynikającym ze złożoności tego procesu oraz
silnej presji finansowej, organizacyjnej i rynkowej.
Kluczowa okazuje się szybka reakcja na wszelkie
zmiany: popytu, podaży, dostępności surowców
i parku maszynowego. Badania wyraźnie pokazują,
że w cały proces zaangażowanych jest wiele
osób, co z jednej strony podkreśla znaczenie tego
obszaru, z drugiej zaś wskazuje na braki związane
z automatyzacją samego planowania.
„W terminie i po niskich kosztach”
Zdaniem ankietowanych zdecydowanie
najważniejszą spodziewaną korzyścią płynącą
z wykorzystania rozwiązań IT do operacyjnego
planowania produkcji jest zapewnienie terminowości
dostaw. Potwierdziło to aż 75% ankietowanych.
Wiąże się ona pośrednio z kwestią skrócenia cyklu
produkcyjnego, która jest bardzo istotna (+2)
dla 38% badanych i istotna (+1) dla 40%.
Dla zapewnienia wysokiej terminowości znaczenie
ma również minimalizacja czasów przezbrojeń –
dla 42% pytanych jest to cel istotny (+1).
Niezwykle ważne są także kwestie związane
z oszczędnościami. Minimalizacja kosztów
produkcji (dla 46% ankietowanych jest celem
najważniejszym) i maksymalizacja wykorzystania
zasobów (44% oznaczyło to pytanie symbolem +2).
1 osoba
15%
2-3 osoby
49%
4-5 osób
17%
powyżej
5 osób
19%
Minimalizacja
kosztów produkcji
-2 4%
-1 0%
0 23%
+1 27%
+2 46%
Maksymalizacja
wykorzystania zasobów
-2 0%
-1 0%
0 23%
+1 33%
+2 44%
Terminowość
-2 0%
-1 0%
0 8%
+1 17%
+2 75%
Minimalizacja
czasu produkcji
-2 0%
-1 0%
0 23%
+1 40%
+2 38%
Minimalizacja
czasów przezbrojeń
-2 0%
-1 8%
0 21%
+1 42%
+2 29%
-2 – najmniej ważne
+2 – najbardziej ważne
30. 30
Firmy są zmuszone do planowania zleceń
produkcyjnych w środowisku swoich prawdziwych,
ograniczonych zasobów, a co za tym idzie
informować klientów o realnym terminie
wykonania. Często przedsiębiorstwa
przechodzą z planowania tygodniowego
na harmonogramowanie dzienne, godzinowe,
a czasami jeszcze dokładniejsze. Niezmiennie,
muszą optymalizować przebiegi w celu obniżenia
kosztów. Używane do tego celu oprogramowanie
najczęściej nie jest w stanie odwzorować realnych
ograniczeń występujących w procesie produkcji.
Celem, na który firmy zwracają najmniejszą
uwagę jest minimalizacja wielkości partii/serii
produkcji. Dla 61% respondentów nie ma on
większego znaczenia, natomiast aż 19% uznało
go za zupełnie nieistotny. Minimalizacja stanów
magazynowych i minimalizacja pracy w toku,
to według odpowiednio 18% i 19% cele mało
lub bardzo mało znaczące.
Gdzie ERP nie może, tam APS dotrze
Badanie koncentrowało się również na analizie
narzędzi wykorzystywanych do wspierania
procesu tworzenia okresowego planu produkcji
w przedsiębiorstwie. Okazuje się, że aż 77%
ankietowanych korzysta z rozwiązań klasy ERP/
MRPII. Co ciekawe podobna liczba (71%)
nadal wspomaga się arkuszami kalkulacyjnymi.
Może to wskazywać na korzystanie z danych
zgromadzonych w systemach ERP, aby później
realizować zadania planistyczne z użyciem tych
danych w Excelu. 19% korzysta z systemu realizacji
produkcji MES, a 5% pracuje na własnych aplikacjach
dedykowanych. 13% przedsiębiorstw wykorzystuje
narzędzia dedykowane do zaawansowanego
harmonogramowania produkcji, czyli systemy APS.
– O ile rynek systemów ERP możemy uznać w Polsce
za dojrzały oraz nasycony, o tyle rynek systemów APS
(Advanced Production Scheduling) wychodzi
Rozwiązania IT wykorzystywane w przedsiębiorstwie
MRPII/ERP (planowanie zasobówprzedsiębiorstwa)
Arkusze kalkulacyjne MS EXCEL
MES (system realizacji produkcji)
APS (zaawansowane planowanie iharmonogramowanie)
Własne aplikacje dedykowane
EDI (elektroniczna wymiana danych)
BI (Business Intelligence)
SFC (system sterowania produkcją)
DRP (planowanie zasobów dystrybucyjnych)
Inne
10%
10%
6%
19%
13%
71%
77%
2%
2%
2%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90%
31. 31
dopiero z początkowego stadium rozwoju. Badania
wskazują, że część firm produkcyjnych podjęła
już decyzję o wprowadzeniu zaawansowanych
narzędzi planistycznych traktując je jako kluczowy
element budowania przewagi nad konkurencją.
13% firm biorących udział w ankiecie jest w swoistej
awangardzie firm produkcyjnych, czerpiąc szereg
korzyści, takich jak lepsza reakcja na zmiany,
przyspieszenie procesu planowania, czy lepsze
wykorzystanie zespołu – podkreśla Paweł
Koprowski, Dyrektor Sprzedaży DSR.
Systemy ERP wykorzystywane są jedynie
do głównego planowania produkcji (63%)
i tradycyjnego planowania potrzeb
materiałowych (60%).
Jeżeli chodzi o najczęstsze metody dystrybucji
okresowych planów produkcji to cały czas
wykorzystywane są najprostsze formy takie
jak arkusze kalkulacyjne (65%) i papierowe
przewodniki produkcyjne (42%). Moduły
systemów klasy MRP/ERP funkcjonują w 29%
przedsiębiorstw. Trochę inaczej sytuacja prezentuje
się w przypadku zbierania danych dotyczących
realizacji krótkoterminowego planu produkcji,
gdzie najwięcej firm wykorzystuje systemy MRP/
ERP (54%). Z arkuszy kalkulacyjnych korzysta 46%,
a z przewodników produkcyjnych 35%.
– Badania potwierdzają, że firmy wciąż stosują
uniwersalne narzędzia wspomagające układanie
harmonogramów, takie jak arkusze kalkulacyjne.
Problem w tym, że nie uwzględniają one kontroli
materiałowej lub stosują uproszczone rozwiązania.
Złożoność procesu harmonogramowania już w średnio
skomplikowanych procesach produkcyjnych zmusza
planistów do ograniczenia harmonogramowania
tylko do wybranych poziomów w strukturze
złożenia produktu (Bill Of Material) – narzędzia
o ograniczonych możliwościach nie pozwalają
na śledzenie zależności pomiędzy poziomami
złożenia produktu – dodaje Paweł Koprowski.
Podsumowanie
Dla firm wytwórczych w procesie planowania
operacyjnego najważniejsza jest terminowość
i optymalizacja kosztów. Mniej istotna jest
minimalizacja stanów magazynowych i pracy w toku,
a za najmniej ważny cel zostały uznane kwestie
z związane z minimalizacją wielkości partii/serii.
Elementy planowania produkcji wspierane przez system ERP
Główne planowanie produkcji
Planowanie potrzeb materiałowych
Zagregowane planowanie produkcji
Brak
Szeregowanie i harmonogramowanie
Bilansowanie zdolności produkcyjnych
60%
63%
21%
19%
17%
25%
0% 10% 20% 30% 40% 50% 60% 70%
32. 32
O DSR
Powstała w 2005 roku spółka DSR Sp z o.o. (Dynamika Synergia Rezultat) jest dostawcą rozwiązań informatycznych
wspierających organizację i zarządzanie przedsiębiorstwem w obszarze produkcji i logistyki. DSR proponuje firmom wytwórczym
szeroki zakres usług: od konsultingu biznesowego, poprzez wdrożenia ERP aż do sterowania operacyjnego wspieranego przez:
APS, Automatyczna Identyfikacja – kody kresowe i systemy MES. Klienci DSR to zarówno duże korporacje jak i firmy lokalne.
Wyróżnikiem DSR jest konsekwentna identyfikacja procesów Klienta, w których inwestycja w IT przyniesie najlepsze efekty (ROI).
Piotr Rojek
Jest prezesem zarządu DSR. Odpowiada za kształtowanie strategii rozwoju spółki, współpracę z partnerami
technologicznymi, koordynację obszaru R&D oraz doradztwo w zakresie poprawy efektywności firm produkcyjnych.
Zarządza procesem tworzenia nowych rozwiązań informatycznych. Karierę zawodową rozpoczynał w firmie QAD,
gdzie odpowiadał za obsługę kluczowych klientów firmy. Realizował projekty informatyczne i doradcze m.in. dla takich
firm, jak 3M, AB, JTT Computers, TIM SA, Zetkama. Jest absolwentem Politechniki Wrocławskiej. Odebrał również dyplom
MBA Helsinki School Of Economics i Wyższej Szkoły Bankowej w Poznaniu.
– Zauważalnym trendem w dziedzinie
zaawansowanego planowania produkcji jest
nacisk na czas dostaw – mówi Paweł Koprowski.
To czynnik wpływający na konkurencyjność
producentów. Zawsze bardzo ważny – szczególnie
dla rynku polskiego określanego jako „wrażliwy
cenowo” – jest aspekt kosztowy. Firmom zależy
na utrzymaniu niskiego kosztu wytworzenia,
co sprawia, że ich towary są cenowo konkurencyjne.
Tu oczywiście nic się nie zmieniło – presja cenowa
jest cały czas mocna, jeśli nie mocniejsza niż kiedyś.
Przedsiębiorstwa do opracowania planów
wykorzystują narzędzia MRP/ERP i arkusze
kalkulacyjne MS EXCEL. Te drugie są głównym
narzędziem wykorzystywanym do dystrybucji
okresowych planów produkcji. Obserwujemy
tendencję wielu firm do poszukiwania
nowych, skuteczniejszych narzędzi planowania
i harmonogramowania produkcji.
Dostawcy ERP zarówno globalni jak i lokalni,
oferują rozwiązania jedynie wspomagające
harmonogramowanie. Są to proste produkty
nie mające cech systemów APS, jedynie
pomagające planistom poprzez proste metody
harmonogramowania, wizualizację obciążenia
zasobów, itd. Ich zastosowanie co prawda pomaga
w utrzymaniu spójności danych (w przeciwieństwie
do rozwiązań opartych na arkuszach kalkulacyjnych),
jednak nie wprowadza jakościowej zmiany
w systemie harmonogramowania.
Ankieta jest dostępna na stronie: http://www.dsr.com.pl/aktualnosci/wypelnij-ankiete-odbierz-nagrode
34. 34
Outsourcing:
prościej, bezpieczniej, taniej
Wspomniana optymalizacja dotyczy m.in.
przechowywania i przetwarzania danych.
Zapewnienie bezpieczeństwa i ciągłości dostępu
do danych nie jest kwestią wyboru, a czysto
biznesową kalkulacją. Prostym sposobem
jest relokacja zasobów teleinformatycznych
przedsiębiorstwa do zewnętrznego centrum
danych, a więc outsourcing. Jednak aby
przeprowadzić ten proces z sukcesem, należy się
do takiej zmiany odpowiednio przygotować.
Outsourcing tak, ale kiedy i jak?
O outsourcingu firmy powinny myśleć cały czas,
choć decyzja o powierzeniu zasobów podmiotowi
zewnętrznemu może być poprzedzona różnymi
innymi decyzjami czy warunkami. Jednym z nich
może być efekt skali. W większej organizacji
wymagania związane z własną infrastrukturą
sieciową i serwerową rosną w szybszym tempie.
Z kolei mniejsze przedsiębiorstwa nie chcą mnożyć
kosztów, utrzymywać sztabu specjalistów i chętnie
korzystają z outsourcingu.
Dynamiczny rozwój firmy oznacza często
konieczność rozszerzenia kadry, w tym zespołu IT.
Im bogatsze portfolio świadczonych usług i więcej
obsługiwanych klientów, tym silniejsza potrzeba
stabilnego i bezpiecznego przechowywania danych,
szybkiego dostępu do sieci, ale też usprawnienia
wszystkich procesów z tym związanych. To z kolei
rodzi potrzebę skorzystania z usług specjalistów,
którzy skutecznie zapanują nad wszystkimi
działaniami nawet wtedy, gdy firma powierzy swoje
zasoby IT zewnętrznemu partnerowi. Przeczy to
powszechnej opinii, że outsourcing wiąże się
z redukcją etatów w firmie.
W przypadku firm średniej wielkości potrzeba
zatrudnienia managera, który będzie nadzorował
pracę zespołu specjalistów IT, delegował zadania,
wyznaczał cele i kontrolował ich realizację – nie
wykonując przy tym pracy operacyjnej – może być
sygnałem do rozpoczęcia poszukiwań partnera
do zarządzania zasobami IT firmy.
Bywa, że sugestia bądź rekomendacja
powierzenia firmowej infrastruktury IT
zewnętrznemu dostawcy wychodzi od osoby
lub działu zajmującego się finansami. Należy
bowiem pamiętać, że infrastruktura sieciowa
to żywy organizm. W sensie dosłownym,
bo należy zatrudnić kompetentnych specjalistów,
którzy będą sprawować pieczę na całością,
Dynamiczny wzrost ilości danych generowanych w ostatnich latach wymusza na firmach
i instytucjach poszukiwanie nowych, tańszych rozwiązań IT i alternatywnych modeli
działalności biznesowej. Dotyczy to przedstawicieli praktycznie wszystkich sektorów
rynkowych. Rozwiązania dedykowane działom IT, które sprawdzały się jeszcze kilka lat temu,
dzisiaj stają się dla przedsiębiorstw ciężarem zwiększającym koszty. Postępująca transformacja
rynku IT, której jesteśmy świadkami sprawia, że zarówno małe przedsiębiorstwa, jak i duzi
gracze stanęli przed wyzwaniem tworzenia nowych strategii. Strategii, dzięki którym możliwa
będzie przede wszystkim optymalizacja procesów operacyjnych, a w dalszej perspektywie
także redukcja kosztów.
Robert Paszkiewicz, ATM S.A.
35. 35
ale też w sensie technicznym. Sprzęt bywa zawodny,
ulega awariom, starzeje się – to oznacza kolejne
inwestycje. W przypadku średnich i dużych firm
jest tylko kwestią czasu, aż kadra odpowiedzialna
za płynność i stabilność finansową zwróci uwagę
na generujący coraz większe koszty dział IT.
Plan działania
Po podjęciu decyzji o outsourcingu zasobów
należy określić potrzeby przedsiębiorstwa.
Chodzi tu o sprecyzowanie celów biznesowych
i – przede wszystkim – wymagań wobec dostawcy,
takich jak: zakres współpracy i świadczonych
usług, czas realizacji czy jasne określenie obszarów
odpowiedzialności. Ponadto warto zadbać
o niezbędne szkolenia dla kadry IT, aby przyszła
współpraca była płynna i bezproblemowa.
Najczęściej takie szkolenia, już od pierwszego
etapu projektu, zapewnia partner, który będzie
świadczył usługę kolokacji lub hostingu.
Przygotowując plan należy także określić obszar
największego ryzyka. W przypadku przenoszenia
zasobów do centrów kolokacyjnych dostawcy, będą
to oczywiście dane firmy. Zarówno te o charakterze
wewnętrznym, a więc dotyczące działalności
samego przedsiębiorstwa, jak i zewnętrzne –
dane klientów, akcjonariuszy czy partnerów.
Bardzo ważnym elementem jest także włączenie
w cały proces pracowników, którzy potem będą
odpowiedzialni za kontakt z firmą świadczącą
usługę outsourcingu. Mowa tu o wszystkich
etapach projektu – od fazy początkowej
po fizyczne przeniesienie zasobów. Tak samo
istotne jest jasne określenie osób odpowiedzialnych
za projekt po stronie partnera outsourcingowego,
w tym ich zakresu obowiązków. W biznesie,
gdzie w grę wchodzi bezpieczeństwo poufnych
i wrażliwych danych, wzajemne zaufanie powinno
być priorytetem.
Kierunek: centra danych
Związany z potrzebą optymalizacji procesów
biznesowych, outsourcing usług do centrów
danych spowodowany jest kilkoma dodatkowymi
czynnikami. Z pewnością jest to postępująca
digitalizacja zarówno biznesu, jak i sektora
publicznego, rozwój i standaryzacja technologii
LTE, rozwój modelu e-commerce, wzrost liczby
urządzeń mobilnych i ilości przesyłanych danych
oraz rosnące zapotrzebowanie na transmisje
wideo w jakości HD/UHD, rozwój gier i mediów
społecznościowych. Coraz większy wpływ
na popyt na usługi w centrach danych mają
też rozwiązania chmurowe.
Z terminami: kolokacja, hosting czy cloud
computing polski rynek zdążył się już oswoić.
Nie wywołują już one takich emocji i wątpliwości,
jak jeszcze kilka lat temu. Firmy zrozumiały,
że zarządzanie rosnącymi w ekspresowym
tempie wolumenami danych jest często ponad
ich możliwości organizacyjne i infrastrukturalne.
Dość powiedzieć, że do 2020 roku ilość
wygenerowanych przez ludzkość danych wyniesie
40 bilionów gigabajtów. To aż dziesięciokrotnie
więcej niż dziś. Coraz bardziej istotna staje
się ochrona tych wszystkich informacji przed
dostępem przez niepowołane osoby.
Budować czy wynajmować?
Alternatywą dla przeniesienia swoich zasobów
do wybranego centrum danych jest oczywiście
stworzenie własnej serwerowni i powierzenie
zarządzania nią wykwalifikowanemu personelowi IT.
Jednak wybudowanie serwerowni średniej
wielkości, która spełni wszystkie standardy
bezpieczeństwa, to koszt kilkudziesięciu milionów
złotych. Do tej kwoty należy jeszcze dodać
przyszłe wydatki związane z utrzymaniem obiektu.
Nie wszyscy są w stanie sprostać tak wysokiemu
progowi inwestycyjnemu.
36. 36
To z kolei przekłada się na dynamiczny wzrost
zainteresowania usługami kolokacji i hostingu.
W tym modelu firma zewnętrzna świadczy usługę
na określonych w kontrakcie warunkach i w zamian
za wynegocjowaną stawkę oferuje parametry
usługi regulowane przez SLA (Service Level
Agreement). Daje tym samym gwarancję jakości
i ułatwia kontrolę wydatków ponoszonych na
funkcjonowanie środowiska IT. Na niej spoczywa
także utrzymanie zasobów, ale i wsparcie rozwoju
biznesu klienta poprzez gotowość do zaspokojenia
jego zmieniających się potrzeb. U elastycznego
dostawcy klient w miarę swojego rozwoju
nie musi rozbudowywać własnej infrastruktury,
ale na życzenie otrzymuje do swojej dyspozycji
odpowiednią ilość nowych zasobów. Ponadto
korzystanie z takich produktów, jak serwery
dedykowane w zewnętrznych centrach danych,
pozwala też na elastyczność w doborze konfiguracji
sprzętowej i swobodę ewentualnej rezygnacji
z usługi w dowolnym momencie.
Jeśli wynająć, to od kogo?
Przed podjęciem decyzji o tym, komu powierzymy
nasze zasoby, warto dobrze przyjrzeć się ofercie
rynkowej i sprawdzić, które obiekty są nowoczesne
i utrzymują najwyższe standardy. Powód jest
prosty. Centra danych są różne, a o bezpieczeństwie
decydują często detale. Warto więc sprawdzić
referencje dostawców i wybierać tych
wypróbowanych i posiadających odpowiednie
doświadczenie. Czego więc oczekiwać?
Poza przytoczoną wcześniej optymalizacją kosztów,
kluczowe dla każdej firmy jest bezpieczeństwo
danych oddawanych „pod opiekę” zewnętrznego
dostawcy. Warto więc sprawdzić, czy centrum
danych jest wyposażone m.in. w redundantną
klimatyzację oraz niezależne tory zasilania
miejskiego i wewnętrznego z podtrzymaniem
UPS i dodatkowym agregatem prądotwórczym.
Równie ważna jest łączność telekomunikacyjna
w obiekcie, w tym niezawodny dostęp do Internetu,
umożliwiający szybki i stabilny transfer danych.
Atutem dostawcy jest też dysponowanie
powierzchnią kolokacyjną w różnych lokalizacjach,
co jest niezbędne do świadczenia usługi typu DRC
(DisasterRecovery Center). Dzięki temu usługodawca
może zapewnić klientowi nieprzerwany dostęp
do danych nie tylko na poziomie pojedynczych
systemów, ale i całego obiektu.
Ponadto należy sprawdzić mechanizmy, które
zapewniają właściwy poziom kontroli dostępu
do danych i informacji oraz dostępu fizycznego
do kluczowych elementów infrastruktury
teleinformatycznej. Powinna to być nie tylko
ochrona i system kontroli dostępu, w tym
monitoring CCTV, ale też utrzymanie systemu
gaszenia oraz opieki operatorskiej i serwisowej.
Poziom bezpieczeństwa dodatkowo podnoszą:
możliwość wymiany w krótkim czasie podzespołów
lub uszkodzonego serwera, ochrona sieci (w tym
rozwiązania firewall) i system anty-DDoS, a także
backup danych i zabezpieczenie dostępu do paneli
37. 37
administracyjnych za pomocą certyfikatu SSL,
który szyfruje i chroni przed przechwyceniem
poufne dane przesyłane pomiędzy serwerem
a użytkownikiem.
Firma dokonująca wyboru zewnętrznego
centrum danych powinna dowiedzieć się także,
czy jego lokalizacja jest właściwa ze względu
na polskie i unijne prawo w zakresie ochrony
danych osobowych. Jednocześnie warto zawrzeć
z dostawcą usług centrów danych umowę typu
SLA (Service Level Agreement), która pozwala
zdefiniować m.in. zakresy odpowiedzialności
po stronie dostawcy i użytkownika oraz
podnosić poziom jakości i bezpieczeństwa
usług w oparciu o najlepsze praktyki.
Robert Paszkiewicz
Od blisko 10 lat związany z branżą IT, w firmach technologicznych zdobywał różnorodne doświadczenie na styku biznesu
i techniki, specjalizując się w zarządzaniu produktami hostingowymi, rozwiązaniami w obszarze bezpieczeństwa i usługami
w centrach danych. Obecnie, jako Dyrektor Marketingu w firmie ATM S.A., oferującej usługi telekomunikacyjne pod markami
ATMAN i Thinx Poland, tworzy strategię marketingową i produktową spółki. Wcześniej pracował m.in. w home.pl S.A.,
prowadząc działania promocyjne firmy jako Marketing Manager, a jako Kierownik Produktu „Bezpieczeństwo” odpowiadał
za wdrożenia nowych rozwiązań zwiększających bezpieczeństwo stron www i chroniących komputery klientów.
Prywatnie pasjonat górskich wycieczek i miłośnik fotografii.
38. 38
Optymalizacja, oszczędności
i transformacja w obszarze danych
Urszula Jaworska
Cały ten cyfrowy zgiełk
Współczesny biznes często boryka się z szumem
informacyjnym. Chaosem wynikającym
z napływających danych. Ich ilość, źródła
i formaty są tak wielorakie, że rodzi to zupełnie
nowe problemy operacyjne. Niespodziewanie
powstają także nowe szanse dla modernizacji
biznesu. Cyfrowy wszechświat, obejmujący ogół
danych wytworzonych przez ludzkość, podwaja
się co dwa lata. Pomiędzy rokiem 2013 a 2020
wzrośnie dziesięciokrotnie – od 4,4 bilionów
gigabajtów do 44 bilionów gigabajtów1
.
Dwie trzecie danych jest generowane lub
rejestrowane przez konsumentów lub pracowników,
ale odpowiedzialność za 85 proc. światowych
danych ponoszą przedsiębiorstwa. Według
IDC liczba urządzeń lub przedmiotów, które
można połączyć z Internetem, zbliża się obecnie
do 200 mld, a 7 proc. z nich (14 mld) jest już
podłączonych do Internetu i komunikuje się.
IDC przewiduje, że do 2020 r. liczba podłączonych
do sieci urządzeń wzrośnie do 32 miliardów
i będzie wytwarzać 10 proc. światowych danych2
.
Zmiana ilości doprowadziła do zmiany jakości.
Zmiana skali spowodowała zmianę statusu.
Taki rozwój wypadków przewidywał Bob Metcalfe.
Prawo Metcalfe’a mówi, że użyteczność sieci
zwiększa się proporcjonalnie do kwadratu ilości
węzłów podłączonych do niej.
Dane, informacje, wiedza
Przetwarzamy dane ponieważ niosą użyteczne
dla biznesu informacje. Informacje zinterpretowane
w kontekście posiadanej wiedzy, przez
doświadczonego managera mogą przynieść
1 badanie Digital Universe firmy EMC
2 według IDC
biznesowi nową wiedzę. Skoro 2/3 danych generują
nasi klienci i pracownicy, to wiedza ta może mieć
wartość biznesową. Przetwarzamy duże zbiory
danych także dlatego, że już można. Legendarny
naukowiec–przedsiębiorca, Oren Etzioni, zajmujący
się rozkręcaniem biznesów operujących ogromnymi
ilościami danych, zwraca uwagę, że kilka lat
temu przetwarzanie big data byłoby niemożliwe.
Przetwarzanie i gromadzenie danych było zbyt
drogie. Ponieważ koszty operowania danymi
spadły, możliwe jest także operowanie na danych,
które przestały już być użyteczne. Przydatność
danych nie kończy się już z chwilą osiągnięcia
celu, dla którego są gromadzone… Duże, zmienne,
różnorodne i niestrukturyzowane zbiory danych
powodują, że ich przetwarzanie i analiza jest
bardziej złożona, ale jednocześnie wartościowa.
Lapidarnie ujmuje to slogan: „śmieci na wejściu,
wartość na wyjściu” (ang. garbage in, value out).
Big data – jak zacząć
Klasycznym sposobem wyłuskiwania informacji
i wiedzy z baz danych są w przedsiębiorstwach
hurtownie danych (ang. data warehouse (mining)).
Krzysztof Sobieszek podczas spotkania Warsaw
Hadoop User Group stwierdził, że big data zaczyna
się kiedy „złamie się” łopata do data miningu.
Kiedy ilość (ang. volume), zmienność (ang. velocity)
i różnorodność (ang. variety) są na tyle duże,
że klasyczne podejście ukazuje swoją słabość.
Typowy nietrywialny projekt hurtowni danych
trwa co najmniej 1 rok3
. Wymaga zdefiniowania
celów biznesowych i modelu biznesowego pod
kątem hurtowni danych, przeniesieniu modelu
biznesowego na poziom modelu danych,
opracowaniu strategii budowy hurtowni,
3 ocena eksperta Sean’a Kelly
39. 39
założeniu centralnego repozytorium metadanych,
wyborze „tematu” dla pierwszej hurtowni danych,
identyfikacji potrzeb informacyjnych możliwych
do zaspokojenia z poszczególnych źródeł oraz
zdefiniowaniu danych wejściowych do hurtowni
wraz z algorytmami kontroli ich jakości. Trudno
takie „narzędzie” zmodyfikować, by nie wspomnieć
o podstawowej trudności – jak przetwarzać
dane, których znaczenie i model biznesowego
wykorzystania mamy dopiero odkryć...
W klasycznym podejściu (ang. business
intelligence) analizuje się przeszłość
w kontekście znanego modelu biznesowego
i jego potrzeb informacyjnych. Tworzone
raporty, przekroje danych, wizualizacje
mogą dostarczyć wartościowych informacji
o kondycji przedsiębiorstwa. Jeśli zależy nam
na optymalizacji i utrzymaniu biznesu już
istniejącego, badaniu obecnych klientów jest
to podejście wystarczające. Jeśli biznesowi
zależy na poszukiwaniu nowych dróg rozwoju,
analizie klientów potencjalnych, poszukiwaniu
nowych transformacji można dokonać właśnie
wprowadzając podejście big data. Wszystko
zaczyna się więc od odpowiedzi na pytanie –
na czym zależy biznesowi?
Data Science w Polsce
Podejście big data bliższe jest rozwiązywaniu
dochodzeniom Sherlocka Holmes’a. Wymaga
także odpowiednich predyspozycji. W metodzie
tej analityk (ang. data scientist) wykorzystując
wielorakie zbiory danych, różnych formatów,
różniące się strukturą, korzystając przy tym
z różnych narzędzi dedukuje jakie zachodzą
pomiędzy nimi związki i jakie biznesowe
konsekwencje z tego wynikają. W metodzie
tej liczy się szczególnie umiejętność tworzenia
nowych pytań, poszukiwanie odpowiedzi (raczej
niż raportowanie), prognozowanie, interakcja
z danymi. Wyróżnikiem jest również to, że big data
często dotyczy danych napływających na bieżąco
(ang. real-time) a nie tylko danych przeszłych.
Z drugiej strony ogromna ilość danych badanych
powoduje, że niekoniecznie trzeba skupiać się
na dokładnym wyniku. Często przybliżony wynik
mówi wystarczająco dużo o ile analiza nie wykaże,
że wyjątki mają znaczenie i mówią o czymś
zupełnie innym, albo zwracają uwagę na szczegół
dotychczas niezauważany. Wbrew pozorom
big data wymaga solidnego przygotowania
i wiedzy, bo często korelacja pomiędzy danymi
nie oznacza związku przyczynowo – skutkowego
(ang. correlation is not causation). Przykładowo
prawdziwa jest taka oto korelacja, że Szwajcarzy
spożywają najwięcej czekolady i mają także
najwięcej noblistów. Nie wynika z tego jednak,
że jeśli zwiększymy spożycie czekolady mamy
większą szansę na Nobla.
40. 40
Istnieją także nieoczywiste, zaskakujące związki
wynikania. Brytyjski tygodnik The Economist ustalił
mianowicie, że porównanie cen Big Maca w różnych
krajach do jego ceny w USA pozwala na ustalenie,
czy waluty danych krajów są przewartościowane
czy niedowartościowane. The Economist wprowadził
Wskaźnik Big Maca w 1986 r. i od tamtego czasu
raz do roku publikuje jego obliczenia.
W Polsce możliwość wymiany doświadczeń
w obszarze big data oferują spotykające się
regularnie grupy skupiające entuzjastów big data,
np.: Data Science Warsaw, Warsaw R User Group
Meeteup, Warsaw Hadoop User Group czy Warsaw
Cassandra User. Jak mówi chińskie przysłowie
podróż tysiąca kroków zaczyna się od postawienia
pierwszego.
Urszula Jaworska
Analityk biznesowy i data scientist.
Z wykształcenia fizyk cząstek elementarnych, zawodowo związana z branżą usług IT. Drogę zaczynała jako Kierownik
Projektów (m. in. projekt STAREO dla ING Bank Śląski – pierwsze w Polsce masowe wdrożenie nowego standardu
placówek detalicznych banku), obecnie zajmuje się analizą biznesową i zagadnieniami big data. Brała udział w projektach
wdrożeniowych w bankowości (PKO BP, Nordea), sektorze publicznym (PKP PLK S.A., PKP Centrala, ZUS), konsultingowych –
metodyki zarządzania projektami (kolejnictwo, gazownictwo), Data Governance (ZUS). Zainteresowania: „poszukiwanie
diamentów” w dużych zbiorach danych; wędrówki górskie.
42. 42
Najważniejsze są relacje
Stanisław Bochnak, Robert Jesionek: W jaki
sposób się dzisiaj oszczędza? Jakie możliwości
ma do dyspozycji CIO?
Krzysztof Jarosz: Oszczędzać można zasadniczo
na dwa sposoby. W pierwszej kolejności poszukujemy
maksymalnie prostych rozwiązań, natomiast innym
sposobem jest spojrzenie na całość procesów i jego
kosztów oraz możliwych oszczędności, nie tylko
w obszarze wsparcia informatycznego tego procesu.
Jest kilka sposobów na oszczędzanie, np.: w zakresie
umów suportowych, liczby osób zaangażowanych
w realizację procesów, czy automatyzacji procesów.
Możemy również przeprowadzić inwentaryzację
oprogramowania i szukać oszczędności w tym
obszarze, albo w przypadku umowy suportowej,
zamiast kupować u producenta, można zrobić zakupy
u partnera, gdzie nie tracąc na jakości, uzyskamy
efekt ekonomiczny. Te oszczędności po prostu
trzeba zrealizować. Prawdziwe oszczędzanie,
prawdziwa praca zaczyna się później.
Niezbędne w oszczędzaniu są zmiany strukturalne.
Czy tego chcemy czy nie, informatyka jest obszarem
wspierającym. Wyjątkami są bankowość, czy handel
elektroniczny, gdzie IT jest siłą napędową biznesu,
bez której nic nie można zrobić. Znajduje to
odzwierciedlenie w hierarchii organizacyjnej:
w tych branżach są członkowie zarządu
odpowiedzialni tylko i wyłącznie za IT.
Procesowy model oszczędzania, który rozpoczyna
się od spojrzenia na sposoby wspierania biznesu,
pozwala na optymalizację w skali całej organizacji.
Weźmy za przykład procesy księgowe, w które
są zaangażowane nie tylko osoby z księgowości,
nie tylko sam system, ale także osoby składające
zamówienia, potwierdzające wykonanie usług,
czy przyjmujący towar do magazynów itd.
Dzięki wykorzystaniu w konkretny sposób technologii
możemy oszczędzić koszty całego procesu.
To nie są koszty stricte IT, bo czasem trzeba najpierw
zainwestować w automatyzację procesu, żeby całość
informacji była lepsza, bardziej wiarygodna. Obniża
to istotnie koszt procesu. Oszczędności w firmie
to nie tylko temat IT czego nie chcą zrozumieć
niektórzy CFO, ja akurat mam szczęście.
No właśnie, czy pomysły na oszczędzanie
powinny wychodzić od IT czy od biznesu?
Osobiście chyba nigdy nie wyszedłem z takim
pomysłem. Nigdy nie rzuciłem hasła: oszczędzajmy!
Raczej proponowałem poszukiwanie optymalizacji
procesów, usprawnianie przepływu informacji.
Dokładnie tak to wyglądało, kiedy ostatnio
prowadziliśmy w firmie dyskusje dotyczące
wdrożenia platformy zakupowej. Inne znaczenie
ten projekt miał dla działu zakupów, inne
dla mnie. Kiedy przyszedłem do organizacji
proces zaopatrzeniowy nie miał odzwierciedlenia
systemowego, nie było wystarczających informacji.
Pewne trudności w tym obszarze są zrozumiałe,
ale powinny mieć charakter wyjątków, a nie stanowić
standard. Próba przekonania biznesu do rozpoczęcia
projektu polega na pokazaniu, co takie rozwiązanie
może dać firmie, np.: czy przynosi controllingowi,
Czasem, kiedy IT wychodzi z pomysłem optymalizacji, to często kończy się na niczym.
Biznes źle się z tym czuje. Pojawiają się nawet zarzuty, że IT jest ogonem i ten ogon chce
kręcić psem. Dlatego prawdziwą sztuką jest zainspirowanie biznesu, żeby zgłosił pomysł
wymyślony przez IT. Raz to się udaje, a innym razem nie – mówi Krzysztof Jarosz, CIO w firmie
PLL LOT, zdobywca tytułu Diament CIO „Strażnik transformacji” w konkursie CIO Roku 2014
w rozmowie ze Stanisławem Bochnakiem (Deloitte) oraz Robertem Jesionkiem (it-manager.pl).