SlideShare a Scribd company logo
1 of 57
Download to read offline
1
Optymalizacja IT
2
3
Optymalizacja jest koniecznością
5 kroków budowania zespołu wg Łukasza Kruczka
Barbara Mejssner, it-manager.pl
Redukcja kosztów w IT
Jak mierzyć efektywność IT
Stanisław Matczak
Efektywne zarządzanie informacją to największy kapitał w biznesie
Rafał Jakubowski
Przewaga dzięki specjalizacji
Piotr Rojek, DSR Sp z o.o.
Outsourcing: prościej, bezpieczniej, taniej
Robert Paszkiewicz, ATM S.A.
Optymalizacja, oszczędności i transformacja w obszarze danych
Urszula Jaworska
Najważniejsze są relacje
Krzysztof Jarosz w rozmowie ze Stanisławem Bochnakiem oraz Robertem Jesionkiem
Lean IT – doskonalenie na wiele sposobów
Rafał Nessel, Deloitte Polska
Pięć kroków skutecznej restrukturyzacji IT
Asish Ramchandran, Joseph Joy, Varun Joshi, Shomic Saha, Deloitte Consulting LLP
6
12
15
18
22
28
34
38
42
46
50
Spis treści
4
54
54
55
55
56
56
57
Redaktor naczelny: Robert Jesionek
Współpraca redakcyjna: Barbara Mejssner
Projekt graficzny i skład: Monika Bucoń
Optymalizacja na portalu it-manager.pl
Model usług telco do przedefiniowania
Hamulec cyfrowej transformacji
Lean IT – produktywność i efektywność w organizacji
Jak obniżyć koszty backupu
Miliony stracone na licencjach
Szukając większej efektywności
Innowacyjność a wyniki finansowe
Styczeń 2015
5
Więcej niż dyskusja o IT
www.it-manager.pl/deloitte/cio-programme
© 2014 Deloitte Polska
6
Optymalizacja jest koniecznością
Firmy z Europy Środkowo-Wschodniej w dalszym
ciągu odczuwają skutki ostatniej recesji na
świecie i kryzysu w strefie euro. Po niedawnym
spowolnieniu gospodarki, przedsiębiorstwa
wprowadziły ścisłą kontrolę wydatków, zadbały
o wsparcie procesów biznesowych, a także
wyeliminowały programy i projekty niemające
bezpośredniego związku z zyskiem.
Trudne środowisko sprawiło, że firmy ponownie
analizują swoje priorytety biznesowe i strategiczne.
Kładą przy tym większy nacisk na optymalizację
środowisk informatycznych i procesów.
W połączeniu z szybszym tempem opracowywania
technologii jest to źródłem zasadniczej zmiany
roli dyrektora ds. informatycznych (CIO), który
ma już nie tylko wspierać rozwój biznesowy
i innowacyjność, ale wręcz być ich motorem.
Badanie IDC
Firma IDC zrealizowała niedawno badanie
z udziałem 180 dużych przedsiębiorstw, w ramach
którego przeprowadzono 200 ankiet z dyrektorami
ds. informatycznych i dyrektorami generalnymi (CEO)
podmiotów działających w Europie Środkowo-
Wschodniej. Celem badania była analiza aktualnych
strategii informatycznych i sposobów stosowanych
przez dyrektorów ds. informatycznych, aby sprostać
konieczności optymalizacji infrastruktury IT,
a jednocześnie wspierać szersze strategiczne
potrzeby biznesowe swoich firm.
Analitycy IDC stwierdzili, że budżety IT są
wprawdzie w dalszym ciągu pod ścisłą kontrolą,
a normą wciąż są standardowe, przyrostowe
poprawki i aktualizacje posiadanej infrastruktury,
jednak dyrektorzy dążą do bardziej kompleksowego
przekształcenia środowisk informatycznych w skali
całego przedsiębiorstwa. Taka transformacja
ma im pozwolić dotrzymać kroku nieprzerwanie
zmieniającym się potrzebom biznesowym firm.
Badanie wykazało, że czołowe priorytety
strategiczne w regionie na nadchodzący rok
to przede wszystkim optymalizacja procesów
biznesowych, na dalszych miejscach znalazły się:
redukcja kosztów oraz kwestia poprawy jakości.
Stwierdzono także, iż dyrektorzy IT są skłonni
zrestrukturyzować swoje środowiska IT, aby lepiej
sprostać wyzwaniom nowych czasów. Taka
transformacja może być dokonana za pomocą
szerokiej adaptacji najnowszych osiągnięć IT –
takich, jak chmura, mobilność, big data oraz
nowoczesna platforma bazodanowa, która
poradzi sobie z czekającą nas w najbliższym
czasie eksplozją danych.
Kontrola kosztów przez optymalizację
Należy zaznaczyć, że w tle wszystkich
wymienionych priorytetów kryje się nacisk
na zyski, przez co współczesnym dyrektorom
ds. informatycznych trudno jest niekiedy sprostać
stawianym przed nimi wyzwaniom. Oczekuje się
od nich, że przez poprawę procesów biznesowych
pomogą zwiększać przychody. Jednocześnie muszą
jednak utrzymać koszty niezbędnej infrastruktury
i rozwiązań pod ścisłą kontrolą. Nawet jeśli sytuacja
gospodarcza się poprawia, budżety działów
informatycznych rosną o nie więcej niż 1–2%,
przy czym nawet ta skromna podwyżka wynika
Badanie IDC przeprowadzone na zlecenie firm Oracle oraz Intel wskazuje, że na pierwszym
miejscu priorytetów dyrektorów IT w regionie Europy Środkowo-Wschodniej na rok 2015
znajduje się optymalizacja procesów biznesowych.
7
w głównej mierze z faktu, że po latach obniżek
nie można już dalej ignorować pewnych potrzeb.
Typową metodą na kontrolowanie kosztów było
zawsze negocjowanie niższych cen z dostawcami
rozwiązań IT. Z danych IDC wynika, że umowy
dotyczące świadczenia usług informatycznych
w Europie Środkowo-Wschodniej mają dziś
krótszy okres obowiązywania i stały się bardziej
ukierunkowane – dotyczą pojedynczych kwestii
lub wyzwań biznesowych bądź informatycznych.
Takie podejście jest jednak krótkowzroczne i zaczyna
ograniczać elastyczność działów IT, ponieważ
kupowanie rozwiązań na podstawie udzielanych
rabatów przyczyniło się do pofragmentowania
środowisk informatycznych. Co więcej, podejście
to nie koncentruje się aktywnie na obszarach,
które mogą pomóc w generowaniu przychodów.
Jak wskazuje badanie IDC, wśród przedsiębiorstw
pojawia się ostatnio bardziej perspektywiczny
sposób myślenia. Aby zrobić więcej – lub wykonać
nowe zadania – mniejszym kosztem, można
zrestrukturyzować i zoptymalizować środowisko IT.
Źródłem transformacji jest ewolucja
Połączenie kontroli kosztów i konieczności
zwiększania prężności działania przedsiębiorstwa
przyczyniło się do zmiany sposobu myślenia wśród
decydentów z działu IT. Charakteryzuje się on
naciskiem na to, aby robić więcej – i wykonywać
nowe zadania – mniejszym kosztem.
Natychmiastowa zmiana jest jednak dla większości
przedsiębiorstw z Europy Środkowo-Wschodniej
trudna. Powszechnie stosowane są starsze systemy,
oceniane jako „wystarczająco dobre”. Stworzone
w firmie i na zamówienie aplikacje mogą być
trudne do zintegrowania ze standardowymi
rozwiązaniami. Większość dyrektorów
ds. informatycznych stawia więc na podejście
długofalowe. Z badania IDC w regionie
Europy Środkowo-Wschodniej wynika, że CIO
prowadzą swoje środowiska w kierunku większej
optymalizacji przez m.in. następujące działania:
• Upraszczanie. W Europie Środkowo-
Wschodniej firmy muszą się dziś zmierzyć
z prawdziwym tsunami usystematyzowanych
i nieusystematyzowanych danych napływających
z lokalizacji zdalnych. Liczne badania dowodzą,
że same koszty pamięci masowej mogą
sięgnąć nawet 10% wydatków działu IT.
Aby sprostać ilości, szybkości napływania
i różnorodności danych, przedsiębiorstwa
stawiają na upraszczanie, które stało się ich
głównym priorytetem. Jak skomentował dyrektor
ds. informatycznych z jednego z polskich
przedsiębiorstw energetycznych, „infrastruktura IT
i liczne starsze systemy oznaczają wysokie koszty
serwisowania”. Sytuacja ta często prowadzi
do powstania wąskich gardeł w procesach
informatycznych i biznesowych. Aby poradzić
sobie z tą sytuacją, dyrektorzy ds. informatycznych
zmniejszają liczbę systemów i tworzą środowiska
oparte na usługach internetowych.
• Konsolidacja – jako strategiczna reakcja
na nadmierne rozrastanie się infrastruktury
informatycznej i konieczność wymiany starszych
systemów. Zwykle rozpoczyna się ona od planu
zgromadzenia serwerów i pamięci masowej
w jednej lokalizacji. Jej celem jest też zmniejszenie
całkowitej ilości zasobów informatycznych.
Ok. 86% ankietowanych przedsiębiorstw
skonsolidowało już swoje centra przetwarzania
danych w jednej lokalizacji. Konsolidacja tego
typu może poprawić stopień wykorzystania
pojemności, wyeliminować zbędną nadmiarowość
oraz duplikację systemów i pamięci masowej,
a także zmniejszyć zużycie energii.
Kluczowym elementem konsolidacji jest
wirtualizacja serwerów i pamięci masowej,
ponieważ może ona pomóc usprawnić
8
administrowanie systemami i umożliwia
korzystanie z konsoli, monitorowanie,
pomiary i obciążanie opłatami. Wszystko to
stwarza podstawy dla wdrażania zasobów
informatycznych w chmurach prywatnych
i publicznych, w których można efektywnie
łączyć aplikacje (bezpośrednio lub przez
warstwę pośrednią) z bazą danych i źródłami
informacji napływających w czasie rzeczywistym,
co pozwala przeprowadzać złożone analizy
ukierunkowane na poprawę obsługi klienta.
Ok. 46% dyrektorów ds. informatycznych
z regionu jako najważniejszą zaletę chmury
wskazało większą elastyczność, wielu wydaje się
też myśleć perspektywicznie i prowadzić swoje
systemy w tym kierunku.
• Samoobsługa. Dyrektorzy ds. informatycznych
w dużej mierze dostrzegają, że automatyzacja
procesów i zapewnienie praw administracyjnych
menedżerom spoza obszaru IT może znacznie
zwiększyć efektywność tworzenia kont
użytkowników, przyznawania uprawnień
i udostępniania podstawowych narzędzi.
Ponad 60% ankietowanych wdrożyło pewną
formę samoobsługowego udostępniania
zasobów, a 40% – katalog usług.
Nowe wyzwania, nowe możliwości
Ponad 80% ankietowanych dyrektorów IT
przyznało, że rozwiązania informatyczne są
kluczowe dla obniżania kosztów biznesowych.
Wyjaśnia to, dlaczego wdrażanie i modernizację
systemów ERP, CRM, HCM oraz innych aplikacji
biznesowych wymienia się wśród najważniejszych
priorytetów działu IT. Rozwiązania te odgrywają
decydującą rolę w optymalizacji procesów
biznesowych i pośrednio wpływają na obniżanie
kosztów, a należy pamiętać, że oba te zagadnienia
należą do najważniejszych priorytetów firm.
Co więcej, 38% przedsiębiorstw w Europie
Środkowo-Wschodniej inwestuje w oprogramowanie
do analizy danych biznesowych i przeprowadzania
innych analiz (w tym analiz big data), aby móc
łatwiej wskazywać możliwości optymalizacji
funkcjonowania przedsiębiorstwa i procesów.
Narzędzia do analizy danych biznesowych
stosowane dla systemu CRM, systemu do
zarządzania procesami czy systemów finansowych,
a także danych dotyczących poziomu wykorzystania
infrastruktury lub szczegółowych informacji
od klientów, mogą być też jednak wdrażane
równolegle we wszystkich tych systemach.
Istotne inwestycje wiążą się też z mobilnością –
ok. jedna trzecia dyrektorów ds. informatycznych
stwierdziła, że jest to w ich wydatkach jeden
z najważniejszych priorytetów. Narzędzia mobilne
86%
79%
72%
58%
43%
Stan transformacji przedsiębiorstw
Konsolidacja
Wirtualizacja
Monitorowanie i mierzenie
Samoobsługowe
udostępnianie zasobów
Samoobsługowe
udostępnianie katalogu usług
Źródło: IDC, 2014 – na podstawie 186 ankiet
9
można wykorzystać nie tylko do zapewnienia dostępu
do systemów przedsiębiorstwa z odległych lokalizacji,
ale także do generowania dodatkowych informacji
na temat wydajności zespołów handlowych
i łączności, a także wydatków na komunikację.
Nadchodzi rewolucja
Choć wielu dyrektorów ds. informatycznych,
którzy wzięli udział w ankiecie IDC, niechętnie
używa terminu „chmura”, liczby sugerują, że firmy
idą w kierunku wdrażania technologii cloud
computing. Coraz więcej, bo 32%, korzysta już
ze środowiska chmury prywatnej lub hybrydowej,
16% używa natomiast infrastruktury chmury
publicznej i/lub aplikacji udostępnianych
w chmurze tego typu. Choć tylko nieco poniżej
10% ankietowanych przyznaje, że stosuje aplikacje
dostępne w chmurze publicznej, oprogramowanie
jako usługa (SaaS) stanie się w najbliższych latach
nowym modelem podstawowym.
Oprócz znacznego uproszczenia administrowania
aplikacjami, platformami (w tym bazami danych)
i infrastrukturą, modele oparte na chmurze
umożliwiają szybkie opracowywanie
i wdrażanie aplikacji biznesowych. Niezależnie
od tego, czy odbywa się to wewnętrznie,
czy za pośrednictwem dostawcy rozwiązań
informatycznych – chmura otwiera drzwi
eksperymentom, innowacjom i ściślejszej
integracji oprogramowania z infrastrukturą,
co może prowadzić do wypracowania trwałej
przewagi nad konkurencją i znacznie zwiększyć
zyski przedsiębiorstwa. Proces ten oznacza więc
w ostatecznym rozrachunku uproszczenie, które
pozwala wymienić mało wydajne maszyny i systemy
przy jednoczesnym ograniczeniu ich liczby.
Społecznościowe narzędzia biznesowe, Internet
i konsumeryzacja branży informatycznej w wyniku
dużego wzrostu popularności smartfonów i tabletów
sprawiły, że w przedsiębiorstwach pojawił się
nowy typ użytkownika, który jest przyzwyczajony
do mobilności, nieustannego kontaktu ze
znajomymi, rodziną i firmą oraz dostawania tego,
co chce – wtedy, gdy tego potrzebuje. Wśród
firm działających w segmencie B2C wywołało to
Korzyści z chmury publicznej lub prywatnej
Większa elastyczność
Mniejsza bariera wejścia
Szybkie wdrożenie
Mniejsze koszty osobowe w dziale IT
Niższy całkowity koszt posiadania (TCO)
0% 10% 20% 30% 40% 50%
Źródło: IDC, 2014 – na podstawie 186 ankiet
10
olbrzymią presję na zapewnienie klientom obsługi
za pośrednictwem wszystkich kanałów. Banki,
sklepy detaliczne, operatorzy telekomunikacyjni,
usługodawcy, przedsiębiorstwa komunalne i zakłady
komunikacji miejskiej, linie lotnicze, hotele –
wszystkie te firmy i instytucje muszą w czasie
rzeczywistym udostępniać informacje w swoich
serwisach internetowych, aplikacjach, telecentrach,
kioskach, komunikatorach i za pośrednictwem
swoich pracowników w oddziałach. Działanie
w dowolnym punkcie musi być natychmiast
rejestrowane we wszystkich pozostałych obszarach,
aby zapewnić klientowi płynną obsługę również
przy zmianie kanału.
Tak więc kolejną rewolucyjną zmianą w działaniu
przedsiębiorstw jest takie przekształcenie
systemów, aby uzyskać maksymalną szybkość
reagowania, która musi być zapewniona
w dwóch aspektach: w przypadku transakcji
(lub transmisji danych) i zdolności błyskawicznego
opracowywania nowych produktów i usług.
Perspektywa IDC: przychody w chmurze
Przedsiębiorstwa w regionie Europy Środkowo-
Wschodniej są jeszcze na początkowym etapie
transformacji swoich środowisk IT. Rynek chmur
publicznych i rozwiązań SaaS rośnie jednak
o ok. 30% rocznie, IDC spodziewa się więc,
że za trzy lub cztery lata sytuacja będzie całkiem
odmienna. Dyrektorzy ds. informatycznych, którzy
stawiają na model oparty przede wszystkim
na chmurze i go wdrażają, pomagają swoim
przedsiębiorstwom (i swoim karierom zawodowym)
wyraźnie wyprzedzić konkurencję.
Duże międzynarodowe przedsiębiorstwa z branży IT
poświęciły lata na opracowanie gotowych
produktów służących konkretnym potrzebom
biznesowym. Nawet przy stosunkowo atrakcyjnych
kosztach pracy w Europie Środkowo-Wschodniej
wewnętrzne opracowywanie i obsługiwanie
systemów może kosztować więcej niż skorzystanie
z usług firmy zewnętrznej. Aplikacje zawsze będzie
trzeba dostosowywać do niestandardowych
potrzeb, jednak systemy HCM, SCM, CRM oraz
rozwiązania podatkowe i księgowe, narzędzia
do zarządzania dokumentami, bazy danych,
platformy, pamięć masowa i inne rozwiązania
infrastrukturalne można zwykle skonfigurować
i uruchomić znacznie szybciej, gdy wszystkim tym
zajmie się doświadczony dostawca zewnętrzny.
średni roczny wzrost
usług chmurowych
w krajach CEE
należących do UE
wzrost rozwiązań
społecznościowych na
rynkach Unii Europejskiej
tyle razy szybciej rosną
wydatki na big data
w porównaniu do
wzrostu rynku IT
obywateli krajów
CEE posiada
smartfony
Źródło: IDC, 2014
CEE = kraje Europy Środkowo-Wschodniej
Szybkie tempo transformacji
Opracowano na podstawie IDC White Paper:
Driving Business Growth and Innovation: The Next Step for CIOs in Central and Eastern Europe
11
Optymalizacja IT to bardzo szeroki temat, którym zajmuje się także dział Asysty Technicznej
Oracle. Każdy użytkownik naszych rozwiązań, który ma aktywną usługę Oracle Premier Support,
ma do dyspozycji kilka ścieżek pozwalających na optymalizowanie zarówno systemu jako
całości, jak też jego poszczególnych komponentów. Dział Oracle Support stosuje w swojej pracy
podejście proaktywne, co oznacza, że nie tylko reaguje na określone zgłoszenia od użytkowników,
ale proponuje rozwiązania problemów, zanim jeszcze one wystąpią. W większości umów mamy
ustalony taki poziom usługi, że po znalezieniu możliwości usprawnienia systemu, odpowiednie
czynności są od razu wykonywane.
Jednym z procesów optymalizacji które oferujemy, jest możliwość korzystania z modelu
samoobsługi, dzięki której wiele zadań związanych z utrzymaniem systemów Oracle odbywa
się automatycznie. Pracujące u klientów nasze instalacje, posiadają wyspecjalizowane narzędzia
pakietu Oracle Configuration Manager, które analizują konfigurację systemu IT i potrafią
zasugerować użytkownikom zmiany zwiększające jego poziom optymalizacji. Dodatkowo Asysta
Techniczna Oracle otrzymuje zdalnie sygnał o problemie i sugeruje strojenie systemu, informując
użytkownika drogą mailową o podjętych czynnościach. Może to być zmiana parametrów
systemu lub instalacja odpowiednich aktualizacji, dzięki którym system będzie działał sprawniej.
Oprócz stosowania aktualizacji fabrycznych, dostarczanych przez Korporację, mamy możliwość
przygotowania sprofilowanej aktualizacji dla konkretnego użytkownika, z uwzględnieniem
wszystkich uwarunkowań i specyficznych cech pracującego u niego systemu.
Bardzo szeroko stosujemy także metodę kształcenia użytkowników do obsługi rozwiązań Oracle,
wierząc że w każdej organizacji dobrze wyszkolony zespół IT potrafi najlepiej zarządzać procesami
optymalizacji własnych systemów. Udostępniamy bezpłatnie setki szkoleń online, dzięki którym
użytkownicy mogą na bieżąco aktualizować swoją wiedzę na temat produktów Oracle,
jakie u nich są zainstalowane.
Od niedawna dostępna jest także specjalna ścieżka szkoleń, należąca do grupy zwanej Akredytacją.
Szkolenia tej kategorii kończą się swego rodzaju egzaminem, potwierdzającym konkretne
umiejętności specjalistów działu IT klienta. Certyfikat akredytacyjny jest świadectwem, że inżynier
posiada wiedzę pozwalającą najskuteczniej korzystać z narzędzi Oracle Support, dla jeszcze
sprawniejszego rozwiązywania wszystkich problemów z optymalizacją systemów i jego elementów.
W ramach Asysty Technicznej działa zespół Oracle Advanced Customer Support (ACS), który
ma jeszcze większe możliwości optymalizowania systemów u klientów. Ponieważ ACS udostępnia
użytkownikowi dedykowanych ekspertów, opiekujących się konkretną instalacją i posiadających
dogłębną wiedzę na jej temat, każde działanie wykonywane jest znacznie szybciej. Ponadto
w ramach swoich usług ACS może wykonać dla klienta tzw. Proof of Concept, aby sprawdzić
nowe możliwości optymalizacji jego systemu IT. Dzięki temu jest możliwe przetestowanie wielu
zaawansowanych możliwości optymalizowania – takich, jak wdrożenie modelu chmury prywatnej,
czy wirtualizacja.
Paweł Szymczak,
Dyrektor Działu Oracle Support odpowiedzialny za Polskę
12
5 kroków budowania zespołu
wg Łukasza Kruczka
Jak zaangażować wszystkich członków zespołu
do zwycięstwa? Na to pytanie szukają odpowiedzi
zarówno menedżerowie biznesu, jak i trenerzy
sportowi. Łukasz Kruczek stosuje w swojej pracy
5 kluczowych zasad zarządzania zespołem
wyrastających ze Strategii Lean. Prowadzą one
do wzrostu determinacji i motywacji całej drużyny,
co stanowi klucz do ciągłej poprawy wyników.
1.	Jeden zespół, jedna droga
Łukasz Kruczek mówi: W pracy trenerskiej dążę do
tego, by drużynie przyświecała myśl „jeden zespół,
jedna droga” – co oznacza, że wszyscy jedziemy na
tym samym wózku. Podstawą są jasno zdefiniowane
cele, dzięki którym mamy przejrzyste kryteria
zwycięstwa. Powtarzam zawodnikom, że każdy ma
wpływ na wynik innej osoby z zespołu. Skoczkowie
są dla siebie nawzajem trenerami. Wspierają się
i motywują, a także w razie czego instruują.
Dzięki temu mają poczucie odpowiedzialności
i dążą do wspólnego sukcesu.
Współpraca między zawodnikami jest przykładem
dobrych praktyk, które warto przenieść na
płaszczyznę biznesu. Przy wdrażaniu Strategii
Lean zadaję menedżerom pytanie, jaki jest cel
ich organizacji i jaka jest strategia jej rozwoju,
najczęściej wskazują na cele indywidualnych
departamentów – mówi Radosław Drzewiecki,
prezes Leanpassion. Firmy są podzielone na szereg
silosów wertykalnych, takich jak: sprzedaż, operacje,
HR, finanse. Problem w tym, że nie mają one
świadomości wspólnych celów. Bariera występuje nie
tylko pomiędzy departamentami, ale także między
kadrą menedżerską, a resztą pracowników. Dlatego
warto na początek usiąść razem i niczym drużyna
skoczków określić wspólne cele.
2.	100% zaangażowania to podstawa
– Jeśli zawodnik jest zaangażowany na 90% to nie
może osiągnąć wyniku w sporcie. Dotyczy to nie
tylko skoczków, co całego zespołu – przekonuje
Kruczek. – Jeśli jedna osoba odpuszcza, odbija się
to na całej grupie. Wszyscy biorą odpowiedzialność
za swoją pracę i muszą pamiętać, że od ich
efektów zależy sukces drużyny. Zadaniem trenera
jest natychmiastowa ocena po każdym oddanym
skoku. W ten sposób zaangażowanie nie słabnie,
a zawodnik może na bieżąco poprawiać swoje wyniki.
Wg wyników badań przeprowadzonych przez
Instytut Gallupa* tylko 13% pracowników odczuwa
Wraz z nadejściem okresu zimowego rozpoczął się sezon wyjątkowych emocji na skoczniach
narciarskich. Choć aktualnie polska reprezentacja nie święci triumfów na zawodach, trener
Łukasz Kruczek nie ustaje w wysiłkach, by zawodnicy stanęli na najwyższym podium.
Szkoleniowiec wie, że wynik jest efektem nie tyle dobrego startu jednego sportowca,
co wytrwałej pracy całego zespołu. Dokładnie zaplanowany trening oparty na szczegółowej
analizie każdego skoku, testowanie nowych technologii i poszukiwanie ciągłych usprawnień
przez wszystkich członków drużyny sprzyja budowaniu zespołu. Metody zarządzania stosowane
przez doświadczonego trenera to nic innego jak wykorzystywanie elementów Strategii Lean,
czyli zaangażowanie wszystkich członków zespołu w budowanie przewagi konkurencyjnej.
Barbara Mejssner, it-manager.pl
13
satysfakcję z pracy. Statystyki wskazują również,
że 85% respondentów przychodzi do pracy,
ponieważ nie mają innego wyjścia i po prostu
muszą, a ich główną motywacją są pieniądze.
Co ciekawe, badania wyraźnie pokazują korelację
pomiędzy stopniem zaangażowania pracowników,
a wynikami finansowymi. Średni wskaźnik EBIT
w firmach charakteryzujących się wysoką
satysfakcją zespołu jest trzykrotnie wyższy niż
w pozostałych organizacjach. Radosław Drzewiecki
mówi: Sięgając do Strategii Lean, poziom satysfakcji
zespołu rośnie wówczas, gdy menedżerowie
„są bezpośrednio w procesie”, rozmawiają
z pracownikami i zadają pytania dotyczące jego
realizacji. W ten sposób można wyeliminować
charakterystyczną dla relacji menedżer–pracownik
asymetrię informacji oraz różne postrzeganie
celów firmy.
3.	Zwycięski skok to nie zawsze dobry skok
– Gdy wraz z zespołem analizujemy zwycięskie
skoki, zdarza się, że choć są one dalekie, często
daleko im do perfekcji. Zwycięzcy są często lepsi
od konkurencji, ponieważ po prostu popełniają
mniej błędów. Szczegółowa analiza skoku pozwala
wychwycić szereg szczegółów, które można poprawić,
a tym samym dążyć do ciągłego usprawniania pracy
skoczków. Gdybyśmy oparli naszą ocenę na opiniach
z zewnątrz, już dawno byśmy przestali trenować –
a konkurencja tylko na to czeka.
Często w praktyce biznesowej spotykamy się
z sytuacją, w której menedżerowie prowadzą
długie dyskusje, na temat tego, kto ma rację,
a nikt nie pokusi się o zadanie pytania, jakie są
fakty – mówi Drzewiecki. Na pytanie, jaka jest
motywacja pracowników, najczęściej odwołujemy
się do opinii a nie faktów, generalizując, że jest
ona: mała, średnia lub duża. Odpowiednio
zadane pytanie o to, jaki procent pracowników
i kto konkretnie odczuwa brak satysfakcji,
pozwala określić problem i wprowadzić działania
naprawcze, które wzmocnią motywację
i zaangażowanie pracowników.
4.	Mistrza wyróżnia stopień determinacji
– Mistrz zawsze dojdzie na szczyt. Znajdzie swoją
własną ścieżkę. Wynika to z jego determinacji.
Średniego gracza trzeba na ten szczyt wprowadzić
– mówi Kruczek. – To co charakteryzuje mistrzów
to właśnie determinacja do zwyciężania. Cierpliwość
i konsekwencja w pracy towarzyszą im na co dzień.
14
Wokół Strategii Lean narosło szereg mitów,
które sprawiają, że jej wprowadzanie może wiązać
się ze sprzeciwem. Nie polega bowiem ona
na zmuszaniu ludzi do cięższej pracy. Nie sprawia
również, że zespół będzie pracował szybciej.
Rolą menedżera jest budowanie świadomości
celów, kreowanie atmosfery zaangażowania
i otwartości do zgłaszania problemów – wyjaśnia
Drzewiecki. Praktyka wskazuje, że najczęściej
menedżer okazuje szacunek swoim pracownikom
poprzez sam kontakt z procesem, współuczestnictwo
i obserwowanie postępów.
5.	Skok to nie tylko moment wybicia z progu
– Każdy skok to proces złożony z wielu bardzo
ważnych elementów, a nie tylko moment wybicia
z progu – mówi na koniec Łukasz Kruczek.
Dlatego jestem zwolennikiem codziennego trenowania
i nieustannego szukania problemów. Zostawiamy
szerokie pole do eksperymentowania i poszukiwania
nowych rozwiązań, które mogą zdecydować
o zwycięstwie. Nie mam tu na myśli tylko pracy
skoczka, ale również spraw najprostszych – kształtu
i wygody buta, stosowanej diety, układu wiązania.
Wydaje się oczywiste, że doskonalenie zespołu
to nieustający proces, a nie kolejny projekt,
za który jest odpowiedzialny określony dział
w firmie. Drzewiecki konkluduje: Powodzenie
Strategii Lean jest możliwe tylko wtedy, gdy
wszyscy pracownicy są zaangażowani w proces
doskonalenia. Najczęstszy błąd menedżerów polega
na przekonaniu, że wystarczy powołać komórkę
ds. Lean, a samemu można skoncentrować się
na prowadzeniu biznesu.
* Instytut Gallupa (ang. The Gallup Organization) – najstarszy instytut badania opinii społecznej na świecie
dostarczający różnorodnych informacji na temat opinii publicznej w kwestiach aktualnych wydarzeń.
15
Redukcja kosztów w IT
Nie dopuść do tego, aby polityka firmy
powstrzymała realizację inicjatyw mających
na celu redukcję kosztów IT
Konflikty pomiędzy bezpośrednimi podwładnymi
CIO, bardzo często wynikające z faktu, że każdy
z nich broni swojego terytorium, mogą udaremnić
plany redukcji kosztów związanych z utrzymaniem
i zarządzaniem funkcją IT w firmie. Bez względu
na koniunkturę gospodarczą, dyrektorzy IT
muszą bardzo często realizować projekty
optymalizacji kosztów.
Konieczność redukowania kosztów IT wynika
nierzadko z ogromnej presji finansowej lub
konkurencyjnej – ponieważ wyniki spółki
w danym kwartale nie są najlepsze, prezes
domaga się redukcji kosztów w całym
przedsiębiorstwie, aby uspokoić udziałowców.
Niekiedy inicjatywy mające na celu
optymalizację kosztów IT podejmowane są
przez CIO w ramach wprowadzanych przez nich
zmian lub w celu wykazania ich bezpośredniego
wpływu na organizację funkcji IT. Zdarza się
również, że CIO dąży do wyeliminowania
określonych wydatków w celu pozyskania
środków na nową inwestycję.
Identyfikacja możliwości ograniczenia kosztów
w obszarze IT jest stosunkowo prostym zadaniem,
czego nie można już niestety powiedzieć
o samej jego realizacji. Jak przekonuje Anthony
Stephan, dyrektor działu Technology Strategy
& Architecture w Deloitte Consulting LLP, polityka
organizacyjna, sprzeczne priorytety czy brak
dedykowanych zasobów sprawiają, że realizacja
wielu inicjatyw z zakresu redukcji kosztów IT
jest opóźniona, zaniechana lub nie przynosi
oczekiwanych rezultatów.
Walka o wpływy wewnątrz organizacji może
okazać się najpoważniejszym wyzwaniem
stojącym przed CIO. Konieczność ograniczania
kosztów przeraża nawet najbardziej trzeźwo
myślących pracowników działu IT. Ich obawy
związane są przede wszystkim z możliwością
negatywnego wpływu projektów optymalizacyjnych
na ich wizerunek liderów. Z tego też względu
podejmują często działania o charakterze
samozachowawczym, które mogą zniwelować
najlepsze intencje CIO.
Istnieje wiele sposobów przeciwdziałania
oporowi oraz zachowaniom samozachowawczym
pracowników. Już na samym początku CIO może
przybrać łagodny ton, ogłosić, że inicjatywa ma
strategiczne znaczenie dla przedsiębiorstwa,
wyznaczyć jasne, mierzalne cele czy też
wprowadzić system zachęt dla pracowników.
Nie pokazuj jak bardzo ci zależy
Stephan twierdzi, że polecenie cięcia kosztów
informatycznych wydane CIO przez prezesa
lub dyrektora finansowego firmy wywiera na
niego ogromną presję. CIO czują bezpośrednią
presję, ponieważ wyznaczane im cele są
zazwyczaj niezwykle ambitne i sprzeczne
z innymi projektami o charakterze doraźnym.
W rezultacie, ich stres często udziela się
podwładnym – zauważa Stephan.
Osoby, które nie potrafią zapanować nad
nerwami, potęgują jednak dodatkowo uczucie
niepokoju wśród bezpośrednio podległych im
pracowników, w wyniku, czego zaczynają oni
kierować się instynktem samozachowawczym.
Zdaniem Stephana, poczucie lęku w środowisku
pracy staje się problematyczne z dwóch
względów. Po pierwsze, źle wpływa na
produktywność. Bezpośredni podwładni CIO
tracą cenny czas aby „ratować swoją skórę”
zamiast podjąć działania związane z redukcją
kosztów. Po drugie, wypracowanie wspólnego
podejścia oraz budowanie zaangażowania
zespołu wymaga dodatkowego trudu.
16
Jeśli CIO rozpoczyna projekt w napiętej atmosferze,
dążąc następnie do osiągnięcia określonego
wyniku, konieczne jest wyeliminowanie źródła
niepokoju oraz budowanie pasji i optymizmu
związanego z realizacją projektu – podkreśla
Stephan. Niepokój, który początkowo towarzyszy
podwładnym zaangażowanym w realizację
projektu, sprawia, że jest im trudniej wyrazić
poparcie dla wizji dyrektora, bez względu na to,
jak bardzo jest ona przekonująca.
Nadaj projektom odpowiednie znaczenie
Zdaniem Stephana, to, czy dana inicjatywa
przyniesie spodziewane efekty, zależy przede
wszystkim od zdolności przywódczych osoby
zarządzającej działem IT, a w szczególności
od umiejętności przedstawienia wizji projektu
w przekonujący sposób. W wielu przypadkach
niezbędne jest „odczarowanie” cięcia kosztów
w taki sposób, aby nie było ono postrzegane
wyłącznie jako bezwzględne działanie mające
na celu ograniczenie zatrudnienia, ale jako
strategiczna inicjatywa umożliwiająca rozwój
nie tylko działu IT, ale również całej firmy.
Informując pracowników o projektach mających
na celu redukcję kosztów informatycznych,
CIO powinni skupić się na najważniejszym
celu, jakim jest zwiększanie możliwości
rozwojowych oraz wspieranie innowacyjności
przedsiębiorstwa. Powinni również pokazać, w jaki
sposób konkretne działania, jakie mają zamiar
zrealizować, uatrakcyjnią pracę działu lub zdejmą
z pracowników ciężar wykonywania niektórych
obowiązków towarzyszących ich codziennej pracy
– tłumaczy Stephan.
Rzecz jasna, zmiana negatywnego postrzegania
przez pracowników inicjatyw mających na celu
redukcję kosztów IT wymaga od CIO pewnej siebie
postawy oraz przekazywania spójnych informacji.
Nie wystarczy poinformować pracowników
o planowanym projekcie optymalizacji kosztów
jednorazowo, na jego początku – dodaje Stephan.
Przekaz ten należy wzmacniać w całym okresie
jego realizacji.
Wyznacz jasne cele
Baris Sarer, starszy menedżer w dziale Technology
Strategy & Architecture Deloitte Consulting LLP,
proponuje, aby CIO wyznaczali jasne cele w zakresie
cięcia kosztów dla każdego obszaru podległej
im funkcji wraz z terminami ich realizacji, a także
monitorowali osiągane w tym zakresie postępy.
I chociaż taka wskazówka może wydawać się
trywialna, Sarer i Stephan twierdzą, że w praktyce
niewielu dyrektorów IT się nią kieruje.
Dyrektorzy ds. informatyki potrafią zazwyczaj
przedstawić uzasadnienie biznesowe projektu
redukcji kosztów. Zdarza się jednak, że nie
monitorują rezultatów w trakcie jego realizacji,
co stanowi jedną z największych przeszkód
na drodze do sukcesu – twierdzi Sarer.
Zdaniem Sarera, równie ważne jest określenie
strat, na jakie dział informatyczny jest narażony
na skutek odwlekania decyzji lub działań
związanych z realizacją określonych inicjatyw
mających na celu optymalizację kosztów.
W przypadku klienta rozważającego możliwość
skorzystania z usług outsourcingowych
świadczonych przez podmiot zagraniczny, kwota
ta wynosiła 100.000 dolarów tygodniowo.
Przy takim poziomie szczegółowości w odniesieniu
do potencjalnej redukcji kosztów oraz oszczędności,
można z łatwością wyznaczyć cele, które
pracownicy powinni osiągnąć – twierdzi Sarer.
Nawet jeśli pracownicy czują się zagrożeni, mają
wyznaczony wspólny cel. Bieżące monitorowanie
działań podejmowanych w tym zakresie sprawia,
że jest im trudniej zlekceważyć nałożone
na nich obowiązki.
17
System zachęt: pieniądze motywują
do działania
Zachęty finansowe są skutecznym narzędziem,
które CIO mogą zastosować, aby zapobiec ostremu
sprzeciwowi oraz walkom o wpływy, skupiając
jednocześnie uwagę pracowników na konieczności
osiągnięcia celów z zakresu optymalizacji kosztów.
Jeśli inicjatywa mająca na celu cięcie kosztów
koliduje z bieżącą pracą osób pełniących funkcje
kierownicze w dziale IT i nie zostanie uwzględniona
w planach motywacyjnych, osoby te nie będą
szczególnie zainteresowane jej realizacją – zauważa
Sarer. Początkowo mogą podjąć pewne działania
mające na celu ograniczenie kosztów, ale realizacja
całego programu, od analizy po osiągnięcie
zamierzonych korzyści, wymaga wprowadzenia
odpowiedniego systemu zachęt.
Ludzie są w stanie zrobić bardzo wiele,
jeśli ich premia zostanie uzależniona od
osiąganych wyników oraz realizacji inicjatywy
o charakterze strategicznym – dodaje Stephan.
Nie zachowują się już jak ofiary, ale jak zwycięzcy.
Zamiast przyjmować pozycję obronną, konkurują
ze sobą, aby osiągnąć jak najlepsze rezultaty.
Systemy motywacyjne związane z osiąganymi
wynikami potrafią zdziałać cuda.
Dodatkowe informacje: „When Should You Restructure IT”, „5 Steps to IT Restructuring Success”
Tłumaczenie artykułu, który ukazał się 26 sierpnia 2014 r. na stronie: http://deloitte.wsj.com/cio/
18
Jak mierzyć efektywność IT
Stanisław Matczak
Efektywność – to takie ładne słowo…
Wszyscy chcieliby, żeby praca – zarówno osobista,
jak i działanie całej firmy czy organizacji – była
efektywna. Wysoka efektywność z reguły związana
jest ze sprawnym działaniem, brakiem marnowania
czasu na niepotrzebne aktywności, skupieniem
się na tym co najważniejsze, dostarczaniem
właściwych rezultatów czy produktów, wysoką
motywacją do pracy, oraz – last but not least –
dochodowością przedsiębiorstwa.
To wszystko brzmi pięknie – natomiast kiedy
próbujemy odpowiedzieć na pytanie, czy praca
naszych działów czy zespołów wytwarzających
oprogramowanie jest efektywna, to z reguły
pojawia się problem. A jeszcze większy problem
pojawia się w momencie, kiedy chcemy tą
efektywność jakoś zmierzyć…
Po co nam mierzenie efektywności?
Zanim przejdziemy do samego mierzenia, dobrze
jest zastanowić się przez chwilę po co jest nam
potrzebna miara naszej efektywności. Jaka jest
nasza motywacja do tego, aby inwestować w to
mierzenie – bo tak naprawdę podwody mierzenia
efektywności mogą być bardzo różne.
Być może chcemy mierzyć efektywność, po to,
aby pochwalić się w jakimiś ładnymi liczbami
czy wskaźnikami w jakimś raporcie. W tym
przypadku nie trzeba się mocno zastanawiać nad
wyborem metody mierzenia – bierzemy po prostu
taką metodę, która da nam najlepsze wyniki.
I cieszymy się tym wynikami do czasu, aż ktoś
nie zacznie drążyć, co tak naprawdę się za tymi
wskaźnikami kryje…
Być może mamy kilka osób czy zespołów, które
pracują razem i chcemy porównać ich efektywność
ze sobą – po to, aby nagrodzić najlepszych
i dać sygnał „hej, powinniście się poprawić”
tym gorszym. W tym przypadku musimy być
szczególnie ostrożni z wyborem metody pomiaru.
Informatycy (wbrew pozorom) nie są głupi
i wybranie złej metody oceniania będzie miało
dwie konsekwencje. Po pierwsze spowoduje efekt
odwrotny do zamierzonego, czyli demotywację
pracowników: „po co mam się starać w pracy, skoro
jestem oceniany przez tak idiotyczne kryteria?”.
A po drugie, bardzo szybko pracownicy nauczą
się tak organizować swoją pracę, aby raportować
wysokie wskaźniki efektywności, nawet jeżeli ich
praca nie będzie efektywna…
I jest jeszcze jedna motywacja – w moim odczuciu
najbardziej sensowna. W wielu firmach podejmowane
są różnorakie wysiłki mające na celu zwiększenie
efektywności pracy. Wprowadzanie tych zmian
zawsze wiąże się z jakimiś kosztami – albo są
to koszty bezpośrednie, albo pośrednie, kiedy
to musimy zmienić nasze przyzwyczajenia,
wprowadzić jakieś nowe narzędzie, przekonać
się do niego… I tak naprawdę czasami trudno
jest stwierdzić, czy wprowadzenie danej
zmiany przyniosło więcej kosztu czy pożytku.
Ba, często różne osoby mają różne zdania na
temat tej samej zmiany: „wprowadzenie wiki
pomogło nam aktualizować na bieżąco naszą
dokumentację” vs. „wprowadzenie wiki sprawiło,
że mamy dodatkową robotę z utrzymywaniem tego
narzędzia”. Dlatego też dobrze byłoby zmierzyć,
czy po wprowadzeniu zmiany efektywność pracy
faktycznie nam wzrosła. Czy faktycznie jest lepiej –
bo może też być tak, że koszty zmiany przeważają
nad zyskami z jej wprowadzenia.
Problem z licznikiem równania
Jeżeli mamy coś mierzyć, to najlepiej jest zacząć
od określenia definicji wartości mierzonej…
Proponuję wziąć najprostszą definicję efektywności,
która mówi, że efektywność można określić
jako stosunek uzyskanych efektów (na przykład
wytworzonych produktów) do poniesionych
nakładów (najczęściej włożonej pracy lub kapitału).
19
Im więcej wytwarzamy – tym efektywność jest
większa. Im większy jest koszt wytwarzania –
tym efektywność mniejsza. Banalne, nieprawdaż?
Mając takie równanie, z reguły w projektach IT
nie mamy większych problemów z określeniem jego
mianownika. Koszt wytworzenia oprogramowania
możemy bardzo łatwo zmierzyć w poniesionych
wydatkach (np. koszt sprzętu) oraz w czasie pracy,
który również możemy przeliczyć na pieniądze.
Problem natomiast pojawia się w mierzeniu efektu
pracy – jaka jest „wartość” czy „ilość” stworzonego
przez nas oprogramowania. Jak ją zmierzyć?
I tutaj właśnie zaczynają się schody…
Próbujemy coś zmierzyć od strony klienta…
Pierwszym pomysłem jest określenie wartości
oprogramowania z perspektywy klienta. Czyli
próba odpowiedzi na pytanie: co nowy system
(albo zmiana w istniejącym systemie) daje
klientowi? Na ile klient wycenia taką zmianę?
I tutaj trafiamy na pierwszy problem: wartość
oprogramowania dla klienta jest czasami zupełnie
niewspółmierna do nakładów koniecznych do
wytworzenia tego oprogramowania! Może być
tak, że to, co klient zamawia, można mieć „prawie
za darmo” – możemy to wykonać używając
gotowego i darmowego systemu lub składając
razem kilka dostępnych komponentów. Tak może
być na przykład przy tworzeniu prostych serwisów
internetowych – jeżeli klient chce założyć sobie
bloga firmowego, to można taki serwis stworzyć
w ciągu pół godziny. Ale może też być tak,
że klient wymaga implementacji specyficznych
funkcjonalności w specyficznej technologii
(np. wymaga zmiany w systemie, który jest
napisany specjalnie dla niego) i tutaj koszt zmiany
jest duży. Może być też tak, że stosunkowo prosta
zmiana wymaga upgrade’u lub wymiany całego
systemu, z którego korzysta klient – a wtedy
koszt jest ogromny…
Co więcej, nawet w ramach zmian w obrębie
jednego systemu, niektóre zmiany mogą być
wprowadzone względnie łatwo (bo jest to
np. zmiana parametryzacji), natomiast inne
zmiany wymagają głębokiej przebudowy tego
systemu. Czasami rodzi to sporą konfuzję po
stronie klienta – skoro zmiana A kosztuje mnie
1 jednostkę czasu/pieniędzy, to dlaczego
porównywalna funkcjonalnie zmiana B ma mnie
kosztować 100 takich jednostek?
Kod posiada linie
Skoro nie udało nam się wyprowadzić jednostki
wartości oprogramowania od strony klienta,
to może zmieńmy punkt widzenia i spróbujmy
spojrzeć na problem od strony technologicznej?
Metodą pomiaru ilości pracy, która była kiedyś
popularna i czasami jeszcze powraca w różnych
kontekstach, jest liczenie linii kodu tworzonych
przez programistę. Pomysł na pozór wydaje się
bardzo kuszący – ilość linii kodu jest to metryka
bardzo prosta do pomiaru, intuicyjna, zrozumiała
(nawet dla menedżerów…) oraz w pewien sposób
związana z dostarczanymi funkcjonalnościami.
Nic, tylko wziąć i stosować.
Tyle, że tak naprawdę średnio zdolny programista
jest w stanie wyprodukować dowolną ilość linii
kodu w ciągu dnia i, co więcej, wytworzony w ten
sposób kod przy pierwszej konieczności jego
zmiany, będzie nadawał się tylko i wyłącznie
do wyrzucenia i napisania na nowo… Często
też praca najzdolniejszych programistów
polega na refaktoryzacji kodu, w wyniku czego
otrzymujemy… ujemną liczbę stworzonych linii
kodu. Nie rozwijając tego tematu – ocenie
efektywności pracy programisty poprzez ilość
napisanych linii kodu mówimy nasze stanowcze
i zdecydowanie „nie”. A więcej o różnych aspektach
pomiarów linii kodu można przeczytać na przykład
tutaj: „It’s Not About Lines of Code”.
20
Takie różne pointy…
Jeżeli nie linie kodu są miarą wartości
oprogramowania, to co? Dawno, dawno temu,
bo już w 1979 pojawiła się koncepcja obliczania
punktów funkcyjnych (Function Point Analysis –
FPA), czyli liczenia wartości, która ma wyrażać
złożoność oraz wartość oprogramowania. Koncepcja
jest ciekawa, pojawiają się w niej definicje, wzory,
algorytmy i wszystko wygląda bardzo mądrze
i naukowo… Tylko że, tak jak podobno ta metoda
jest popularna w USA, tak w Polsce nie spotkałem
się z żadnym projektem, który by tę metodę
stosował. Wpadamy tutaj trochę w błędne
koło: nie stosujemy punktów funkcyjnych,
bo nie widzimy z tego korzyści; nie widzimy
korzyści z punktów funkcyjnych, bo ich nie
stosujemy. Więcej o punktach funkcyjnych można
przeczytać np. w pracy Ewy Magiery. A jeżeli
ktoś próbował kiedyś stosować punkty funkcyjne
w jakimś praktycznym projekcie – będę wdzięczny
za kontakt i podzielenie się doświadczeniami…
Koncepcją z pozoru troszkę podobną do punktów
funkcyjnych są story points stosowane w metodykach
lekkich, np. w Scrumie. Podobieństwo polega na
tym, że zarówno punkty funkcyjne, jak i story
points, są to wartości bezwymiarowe, to znaczy
nie mające bezpośredniego przełożenia na
czas czy koszt wytworzenia oprogramowania.
Ale zupełnie inna jest filozofia wyznaczania
tych wartości. Za punktami funkcyjnymi stoją
pomiary i wyliczenia – czyli podejście inżynierskie:
„Zmierzmy w naszym systemie wejścia, wyjścia,
pliki, interfejsy i inne cuda, a potem wyliczmy z tego
złożoność oprogramowania używając do tego
bardzo skomplikowanych wzorów”. Koncepcja
wyznaczania story points wychodzi z diametralnie
innego założenia i mówi tak: „Te wszystkie pomiary
są bardzo pracochłonne i żmudne, a ich wynik
jest nie zawsze pewny. Dlatego też dajmy sobie
spokój z tym mierzeniem, zrezygnujemy z pięknych
teorii, które w praktyce nie działają i bazujmy
na doświadczeniu naszego zespołu, który już pewne
zmiany wykonał i potrafi szacować, ile następne
zmiany zajmą nam czasu”.
Story points sprawdzają się bardzo dobrze
w projektach prowadzonych za pomocą metodyk
lekkich i pozwalają na branie do iteracji
odpowiedniej ilości zadań oraz pozwalają
na oszacowanie, ile iteracji pozostało nam
do końca projektu. Ale nie są one wskaźnikiem,
który pozwala na porównywanie między sobą
zespołów, które pracują nad różnymi systemami
i w różnych technologiach, ani też nie wskażą
nam efektywności całej organizacji.
A może nie mierzyć wcale?
I w tym momencie wiele osób mówi tak: story
points u nas nie zadziałają, bo nie jesteśmy
Scrumowi. Nie chcemy albo nie mamy czasu
na eksperymenty z punktami funkcyjnymi.
Żadnych innych sensownych miar też nie udało
nam się skonstruować. No to trudno, zróbmy
inaczej. Zrezygnujmy z mierzenia efektywności całej
organizacji – zamiast tego uwierzmy w to, że nasze
subiektywne poczucie „na ile jest dobrze” jest
prawdziwe. Starajmy się poprawić efektywność tam,
gdzie widzimy problemy. Natomiast jeżeli chodzi
o ocenę efektywności pracy poszczególnych osób –
niech zajmą się tym ich bezpośredni przełożeni.
Kierownik przydziela swoim pracownikom zadania,
niech zatem również ocenia, czy pracownik
wykonuje te zadania efektywnie.
Takie podejście jest stosowane w wielu firmach –
ale zauważmy, że takie rozwiązanie wymaga,
aby kierownik zespołu posiadał co najmniej taki
sam poziom wiedzy i umiejętności technicznych
co jego podwładni. A nie zawsze tak jest – często
bywa tak, że kierownik zespołu zarządza zadaniami,
współpracuje z klientem, sporządza różne raporty
i robi milion innych rzeczy, które sprawiają,
że nie nadąża w rozwoju technicznym za swoimi
21
podwładnymi. Dotykamy tutaj skomplikowanej
kwestii roli kierownika w zespole IT – bo bardzo
często oczekuje się, że ma być to osoba, która
będzie super-programistą, znawcą wszystkich
niuansów systemu, wyrocznią architektoniczną,
a jednocześnie będzie to osoba zapewniająca
skuteczną komunikację, prezentująca wizje,
pracująca nad motywacją zespołu, zapewniająca
coaching pracowników, zarządzająca konfliktami,
oceniająca wyniki pracy, dbająca o rozwój zespołu
i robiąca masę innych rzeczy. W pewnym momencie
trzeba podjąć decyzję – czy kierownik zespołu
ma bardziej rozwijać się w kierunku technicznym
(jest wtedy super-programistą i ocena efektywności
pracy podwładnych jest dla niego o tyle prosta,
że robi na co dzień to samo), czy też może ma się
rozwijać bardziej w kierunku zarządzania (wtedy
prowadzi zespół, ale niekonieczne może być w stanie
ocenić efektywność pracy podwładnych, bo ci mogą
mieć większą wiedzę techniczną od niego).
I na zakończenie…
Zaczęliśmy od efektywności, a skończyliśmy
na oczekiwaniach co do kierownika zespołu…
Znak to, że pora już kończyć ten tekst.
I na koniec o jeszcze jednym sposobie mierzenia
i „poprawiania” efektywności. W pewnej
małej firmie normą pracy programisty była
ilość spędzonych godzin przy pisaniu kodu.
A żeby dopilnować postępów pracy, właściciel
firmy co jakiś czas wpadał do pokoju programistów
i sprawdzał, czy wszyscy mają ręce na klawiaturach
i stukają w klawisze… Historia wydaje się
absurdalna, ale jest, niestety, prawdziwa.
A czy w Twoim zespole czy firmie stosuje się
jakiś pomiar efektywności pracy? Jeżeli tak –
będę wdzięczny za przesłanie informacji o nim
na mojego maila (dostasia@gmail.com).
Stanisław Matczak
Od początku swojej kariery zawodowej pracuje przy rozwoju i utrzymaniu dużych systemów informatycznych.
W przeszłości analityk, programista, projektant, project manager, lider zespołów. Obecnie kierownik zespołu
odpowiedzialnego za optymalizacje systemów informatycznych w Nordea IT Polska.
Założyciel i współtwórca portalu „Trzecia kawa” (www.trzeciakawa.pl), który gromadzi artykuły dotyczące różnych
zagadnień  wytwarzania oprogramowania.
Prywatnie zajmuje się prowadzeniem warsztatów komunikacyjnych dla małżeństw i jest fanem nocnych imprez na orientację.
Artykuł pierwotnie ukazał się na blogu: http://www.trzeciakawa.pl/
22
Efektywne zarządzanie informacją
to największy kapitał w biznesie
Europejscy managerowie w międzynarodowym
badaniu firmy Canon na temat znaczenia informacji
Rafał Jakubowski
Wyszkolona produktywność
Jak wynika z raportu przygotowanego na zlecenie
Canon, pracownicy w przedsiębiorstwach –
bez względu na wielkość organizacji, sektor
gospodarki oraz jej lokalizację geograficzną –
w coraz większym stopniu czują się przytłoczeni
ilością informacji, z którą mają do czynienia
podczas wykonywania codziennych obowiązków.
To niestety przekłada się na procesy biznesowe,
które stają się coraz mniej efektywne. Badanie
wykazało, że istnieją trzy podstawowe czynniki
wpływające na produktywność: sformalizowane
szkolenia, standardowe procesy oraz centralne
systemy pamięci masowych.
Spośród tych trzech, kluczową rolę odgrywają
szkolenia – w szczególności dotyczące tego,
w jaki sposób optymalnie wykorzystywać
technologie biznesowe, a także jak przechowywać
i współdzielić informacje. Mają one największe
znaczenie dla pracowników na niższych szczeblach
hierarchii organizacyjnej. Nieco mniejszą wagę
przypisują im właściciele firm i przedstawiciele
zarządów. Ich zdaniem, dla zwiększania
produktywności równie ważne co szkolenia (39%)
są protokoły przechowywania i współdzielenia
informacji oraz ich realizacja w praktyce (37%).
Pracownicy, którzy swoje obowiązki wykonują zdalnie
większą rolę przypisują standardowym sposobom
przechowywania informacji i zarządzania nimi.
Biorąc to pod uwagę, wydaje się, że ta sytuacja
to doskonała okazja dla CIO na przejęcie sterów
w organizacji w obszarze systemów zarządzania
informacją. Z wniosków zawartych w raporcie
ICM dla firmy Canon wynika, że zwiększenie
produktywności można zrealizować w trzech
stosunkowo prostych krokach:
Przedsiębiorstwa na całym świecie stoją przed wyzwaniem codziennego przetwarzania rosnącej
ilości informacji. Jednak niektóre firmy radzą sobie w tej sytuacji lepiej niż inne, osiągając
korzyści dla organizacji. Zarządzają one informacjami w taki sposób, że wzrasta produktywność,
a biznes lepiej odpowiada na potrzeby klientów. Kluczowe znaczenie mają dla osiągnięcia
tego celu sformalizowane szkolenia pracowników z wykorzystania technologii biznesowych
oraz standaryzacja procesów i praktyk – m.in. takie wnioski płyną z badania przeprowadzonego
przez brytyjski instytut ICM na zlecenie firmy Canon na grupie 3800 managerów w całej
Europie. Celem projektu było zidentyfikowanie czynników kształtujących produktywność,
poznanie relacji pomiędzy zarządzaniem informacjami a wynikami finansowymi firmy
oraz znaczenia standardowych procesów i praktyk biurowych dla efektywności, a także
odkrycie tego, co ogranicza zwrot z inwestycji w rozwiązania IT. Analiza danych pozwoliła
na wyodrębnienie czterech kluczowych zagadnień.
23
	•	wprowadzając lub rozbudowując
		 sformalizowane programy szkoleń pracowników,
	•	działając na rzecz standaryzacji procesów,
	•	wdrażając scentralizowane systemy pamięci
		 masowych.
Informacja to pieniądz
Relacja łącząca informacje z zyskownością to
kluczowy element wpływający na efektywność
organizacji. Pracownicy na wszystkich szczeblach
powinni mieć świadomość, że wszelkie
podejmowane przez nich działania, w których
centrum znajduje się informacja, mają kluczowe
znaczenie dla zwiększania zyskowności
przedsiębiorstwa.
Badanie ICM na zlecenie Canon pokazuje,
że im niższy szczebel organizacyjnej hierarchii,
tym mniejsze zrozumienie związku, jaki zachodzi
pomiędzy informacjami a zyskiem. Jednocześnie,
stosunkowo niska świadomość tej relacji
charakteryzuje pracowników wykonujących swoje
obowiązki zdalnie oraz pracowników sektora
edukacyjnego i ochrony zdrowia.
Z badań wynika, że tylko nieco ponad połowa
pracowników na niższych stanowiskach
rozumie wpływ informacji na zyski. To oznacza,
że przedsiębiorstwa mają jeszcze spore
możliwości do zwiększania swoich zysków,
pod warunkiem, że zapewnią swoim pracownikom
szkolenia koncentrujące się wokół kwestii informacji
oraz danych posiadanych przez organizację.
Co ciekawe, pracownicy, którzy zostali przeszkoleni
w zakresie technologii biznesowych oraz
zarządzania informacjami o wiele częściej zdają
sobie sprawę z relacji pomiędzy informacjami
a zyskami niż osoby, które nie uczestniczyły
w szkoleniach. Jednocześnie, im szkoleń było
więcej tym były bardziej treściwe.
Priorytety:
większa
produktywność
27%
procesy/
protokoły
52%
szkolenia
pracowników
systemy pamięci
masowych
22%
Źródło: Badanie instytutu ICM na zlecenie firmy Canon
Badanie
Badanie wykonała brytyjska firma ICM na zlecenie
firmy Canon. W ramach projektu przeprowadzono
3,8 tys. wywiadów w 24 krajach Europy, Azji oraz
Afryki (w tym 200 wywiadów w Czechach, na Słowacji
i Węgrzech oraz w Polsce). Większość badanych to
pracownicy biurowi na niższych i średnich szczeblach
hierarchii organizacyjnej w małych i średnich firmach
(tylko 24% badanych to firmy zatrudniające powyżej
5 tys. pracowników) zajmujący się obsługą klienta,
sprzedażą i marketingiem, finansami i księgowością,
zasobami ludzkimi, kwestiami administracyjnymi
oraz innymi.
24
Maksymalny ROI
Tylko nieco ponad połowa ankietowanych
wie, jak wykorzystać w pełni technologie
biznesowe.
Co więcej, blisko połowa uważa,
że odpowiedzialność za nauczenie się
korzystania z technologii biurowych spoczywa
na użytkownikach końcowych i pracownikach.
Podobna liczba bazuje na szkoleniach
technologicznych organizowanych
przez zewnętrzne podmioty.
Jedna osoba na trzy przyznaje, że nie
została formalnie przeszkolona w zakresie
przechowywania i zarządzania informacjami.
Dotyczy to w szczególności mniejszych
organizacji oraz pracowników, którzy
większość obowiązków wykonują poza
biurem. 36% pracowników zdalnych twierdzi,
że nie uczestniczy w szkoleniach, ponieważ
nie pracuje na co dzień w biurze.
Największe zaniedbania, a zarazem największy
potencjał mają szkolenia koncentrujące się
wokół oprogramowania i procedur związanych
z bezpieczeństwem. Ponad połowa ankietowanych
nie została objęta szkoleniami w tym obszarze.
Brak sformalizowanych szkoleń może często
oznaczać, że technologia nie jest w pełni
zoptymalizowana. To jednocześnie okazja
do lepszego zarządzania procesami i implementacji
standardów postępowania mających na celu
zwiększenie efektywności.
Źródło: Badanie instytutu ICM na zlecenie firmy Canon
64%
70% 71% 72% 73%
Rozumie, w jaki
sposób wytwarzane
lub przetwarzane
informacje wpływają
na zyskowność
organizacji
(57% ankietowanych na niższych
stanowiskach nie-kierowniczych)
Zrozumienie relacji w grupie osób, które zostały przeszkolone w zakresie:
znaczenia
informacji i danych
dla organizacji
obsługi systemów
zarządzania
dokumentami/
polityki
przechowywania
dokumentów
obsługi
oprogramowania
z zakresu
bezpieczeństwa/
polityki zapisywania
plików
procedur
przechowywania/
współdzielenia
informacji
25
Biurowe standardy
Standardy praktyk biurowych mają fundamentalne
znaczenie dla zwiększania produktywności
przy wykorzystaniu technologii biznesowych.
Brak konsekwencji w tym obszarze oznacza
mniejszą produktywność działania. Według danych
zaprezentowanych przez firmę Canon zdecydowana
większość organizacji przechowuje informacje
na centralnych serwerach. Niestety jednocześnie
ponad 40% pracowników przechowuje
informacje na pojedynczych urządzeniach.
Dotyczy to w szczególności małych firm.
Ponad połowa badanych nie uważa, że systemy
pamięci masowych w ich organizacji są dobrze
zorganizowane i efektywne. Oceniają, że straty
czasowe z tym związane wahają się od 25
do 30 minut dziennie. Kluczowe problemy
to brak standardowych formatów papierowych
i niestandardowe sposoby zapisywania.
40% uważa, że standardowe sposoby zapisywani
plików ułatwiłyby współdzielenie informacji.
Ponad połowa firm nie ma standardów
w obszarze nazywania plików, przechowywania
maili i udostępniania dokumentów
do przeszukiwania. Choć duże firmy posiadają
centralne serwery czy chmury, to pracownicy
są w mniejszym stopniu świadomi standardów
w obszarze nazywania i zapisywania plików.
7 na 10 ankietowanych odpowiada, że doświadczyło
problemów podczas poszukiwania starszych
dokumentów.
Standardowe procesy mają szczególne znaczenie
w przypadku pracowników zdalnych. Dwie trzecie
firm posiada takich właśnie pracowników. Większość
z nich przyznaje, że zdalny dostęp jest wystarczający,
ale brak procesów efektywnego zarządzania
współdzieleniem informacji prowadzi do utraty
informacji i przeładowania systemów pocztowych.
Charakterystyka regionalna i organizacyjna
W krajach Europy Północnej, Zachodniej i Środkowej przedsiębiorstwa posiadają technologie
do przechowywania i współdzielenia informacji, ale ich słabością są nieefektywne systemy
zarządzania informacją. W Rosji, w Afryce i na Bliskim Wschodzie mniejsza liczba organizacji
wykorzystuje scentralizowane systemy pamięci masowych, a brak standardowych praktyk
wpływa negatywnie na produktywność.
Małe firmy są stosunkowo dobrze wyposażone w technologie biznesowe, ale brakuje w nich
formalnych szkoleń dla pracowników. Kluczowe znaczenie dla optymalizacji współdzielenia
informacji mają w tej grupie działania zmierzające do rozwoju systemów pamięci masowych.
W dużych przedsiębiorstwach istnieją formalne szkolenia i technologie pozwalające przechowywać
informacje w centralnym systemie. Największe wyzwania dotyczą działań mających na celu
większą standaryzację pracy, która przełoży się na wzrost efektywności.
26
Standaryzacja przepływu informacji oraz edukacja pracowników w zakresie wykorzystania
technologii biznesowych stanowią kluczowe czynniki wpływające na efektywność przedsiębiorstw
w 2015 roku. To główny wniosek badań opracowanych przez niezależny ośrodek badawczy ICM
na zlecenie firmy Canon. Dostrzegając zmiany w sposobie zarządzania, Canon podkreśla konieczność
wsparcia menedżerów w ich dążeniu do wypracowania nowej definicji efektywności opartej
na standaryzacji procesów, łatwym dostępie do danych oraz innowacyjnych technologiach.
Po pierwsze: optymalizacja
Pracownicy najniższego szczebla hierarchii organizacyjnej podkreślają potrzebę edukacji
w obszarze optymalnego wykorzystania technologii biznesowych w firmie. 1/3 badanych
przyznaje, że nie została formalnie przeszkolona w zakresie przechowywania informacji
i zarządzania nimi. To wyraźny sygnał dla CIO, którzy powinni traktować rozwój umiejętności
szeregowych pracowników w zakresie obiegu dokumentów, jako jeden z kluczowych elementów
poprawy efektywności funkcjonowania poszczególnych oddziałów i całej firmy.
Anna Krupińska,
Dyrektor Marketingu BIG w Canon Polska
Według danych zaprezentowanych przez firmę Canon
78%
organizacji
ma centralne serwery
do przechowywania informacji
przechowuje informacje
na indywidualnych urządzeniach
41%pracowników
minut
tyle czasu średnio każdego dnia
jest tracone na poszukiwanie
historycznych dokumentów
czytaj dalej
27
Mając świadomość potrzeb przedsiębiorstw, Canon od lat rozwija i wdraża technologie
wspierające konsolidację infrastruktury druku i automatyzację procesu obiegu dokumentów.
Wpływają one na podniesienie efektywności i zyskowności procesów, m.in. poprzez oszczędność
materiałów czy czasu pracy. W związku z tym dyrektorzy ds. IT w bezpośredniej współpracy
np. z dyrektorem finansowym powinni wziąć większą odpowiedzialność za proces integracji
obszaru technologicznego i biznesowego firmy w oparciu o najnowsze narzędzia informatyczne.
Przyczyni się to do lepszego zrozumienia wymagań klienta zarówno przez top menedżerów,
jak i pracowników szczebla podstawowego.
Po drugie: dostępność
Popularność modelu BYOD (Bring Your Own Device) sprawiła, że rolą CIO w nowoczesnych
przedsiębiorstwie nie jest już „stanie na straży” informacji. Odpowiadają oni za tworzenie
pracownikom warunków do możliwie łatwego dostępu do danych, zwłaszcza jeśli wykonują
obowiązki poza biurem. Według raportu Canon, aż 2/3 ankietowanych firm zatrudnia personel
działający w terenie. Model współpracy oparty na integracji aplikacji i narzędzi biznesowych
umożliwiających dostępność danych off-line wymaga jednak zapewnienia szczególnego
bezpieczeństwa. Dlatego przy wyborze dostawcy tego typu usług, dyrektorzy IT powinni wziąć
pod uwagę z jednej strony niezawodność i innowacyjność proponowanych rozwiązań, z drugiej
zaś doświadczenie i ekspercką wiedzę dostawcy. Canon, jako partner biznesowy największych
światowych organizacji posiada ogromne doświadczenie we współpracy przy najbardziej
złożonych projektach i doskonale łączy najwyższą jakość technologiczną z praktyką.
Po trzecie: standaryzacja
O ile ogromna większość przebadanych podmiotów posiada centralne serwery lub korzysta
z rozwiązań chmurowych, o tyle aż 40% ankietowanych przechowuje informacje na pojedynczych
urządzeniach. Bez wspomnianej już optymalizacji technologicznej opartej na jasnych standardach
np. dla obiegu dokumentów, może to generować poważne problemy z archiwizacją, wyszukiwaniem
czy współdzieleniem firmowych danych.
Z przedstawionymi powyżej wyzwaniami muszą zmierzyć się praktycznie wszystkie organizacje
działające w erze cyfrowej transformacji. Praktyka wskazuje, że zastosowaniu innowacyjnych
technologii powinna towarzyszyć przejrzysta wizja zmian, której wprowadzenie stanowi obecnie
nadrzędny cel każdego nowoczesnego dyrektora odpowiedzialnego za procesy cyfrowe.
Jak możemy wspierać Twój sukces?
W Canon rozumiemy wyzwania związane z zarządzaniem dokumentacją
i informacjami, dlatego od lat wspieramy firmy w optymalizacji procesów
poprzez wdrożenie rozwiązań umożliwiających: konsolidację infrastruktury
druku i zarządzanie nią, automatyzację procesu obiegu dokumentów,
przechowywanie dokumentów, druk i dystrybucję.
Wierzymy bowiem, że wykorzystując potencjał technologii można zmieniać
organizacje i zwiększać ich efektywność.
Więcej inspiracji znajdą Państwo na blogu Canon BUSINESS BYTES.
Wojciech Wyszyński
Sales&Business Development Manager
Canon Business Services
Canon Polska
Tel. + 48 22 500 21 44
e-mail: Wojciech.wyszynski@canon.pl
Zachęcamy do kontaktu z naszym przedstawicielem
oraz śledzenia naszych kanałów społecznościowych:
28
Przewaga dzięki specjalizacji
Badania na temat wykorzystania systemów APS
do wsparcia procesu planowania produkcji
Piotr Rojek, DSR Sp z o.o.
Klasyczny system ERP pozwala jedynie na
podstawowe harmonogramowanie produkcji
nawet w średnio skomplikowanych procesach
wytwórczych. Częstym obejściem stosowanym
przez planistów, aby „wycisnąć” jak najwięcej
z ERP, jest ograniczenie harmonogramowania
tylko do wybranych poziomów w strukturze
złożenia produktu (Bill Of Material1
). Korzyści
systemu specjalizowanego APS są zauważalne
praktycznie „od ręki”, ponieważ pozwalają
wyeliminować koszty związane z „ręcznym”
układaniem planów i przestojami. Zwiększają
elastyczność planowania produkcji dając możliwość
realizacji zleceń specjalnych. Wpływają również
na lepszą obsługę klientów zapewniając
szczegółową informację dla odbiorców.
Umożliwiają także pełne dostosowanie pracy
personelu do faktycznych potrzeb.
1 	 Bill of Material – zapis drzewiastej struktury produktu –
		 od drobnych elementów na najniższym poziomie,
		 poprzez półprodukty które na końcu „schodzą” się
		 w produkt gotowy.
Główne wnioski wynikające z badania
Spółka DSR, czołowy dostawca rozwiązań
informatycznych dla firm produkcyjnych,
przeprowadziła badania wśród firm z sektora
wytwórczego dotyczące korzyści wynikających
z krótkoterminowego planowania produkcji.
Analizie poddano również narzędzia informatyczne
stosowane do wsparcia tego procesu. Wyniki
diagnozy pokazują standardy planowania produkcji
w polskich przedsiębiorstwach, a także wskazują
na potrzeby spółek produkcyjnych w tym obszarze.
	•	Kluczową korzyścią, której spodziewają się
		 użytkownicy tworzący plany produkcji w oparciu
		 o narzędzia IT jest zachowanie odpowiedniej
		 terminowości. Przyznało tak ¾ respondentów.
	•	Dla 46% respondentów minimalizacja kosztów
		 jest szczególnie istotnym czynnikiem
		 wynikającym z wprowadzenia rozwiązań
		 do krótkoterminowego planowania produkcji.
	•	Rośnie wykorzystanie zaawansowanych aplikacji
		 do harmonogramowania produkcji klasy APS,
		 które posiada 13% ankietowanych firm.
	•	Systemy ERP wspierają jedynie główne
		 planowanie produkcji (63%) oraz tradycyjne
		 planowanie potrzeb materiałowych (60%).
Powszechne zastosowanie systemów wspomagających zarządzanie klasy ERP spowodowało,
że firmy zbudowały podstawy sprawnego środowiska wymiany informacji w przedsiębiorstwie.
W tym momencie pada pytanie o faktyczną optymalizację kluczowych procesów organizacyjnych
w kontekście budowania przewagi nad konkurencją. W sytuacji, gdy wszystkie firmy dysponują
podobnymi rozwiązaniami o większej skuteczności procesów decydują specjalizowane aplikacje
dziedzinowe. Pokazują to przykłady firm produkcyjnych, które budują skuteczne środowisko wsparcia
biznesu oparte na aplikacjach wspomagających kluczowe obszary, takie jak planowanie produkcji.
29
Planowanie na kilka etatów
Według opinii 38% przedstawicieli firm
uczestniczących w badaniach, w proces
tworzenia krótkookresowego planu produkcji
jest zaangażowanych 4-5 lub więcej osób.
Niemal połowa respondentów przyznała,
że do tego zadania zatrudnia 2-3 osoby.
Menedżerowie odpowiedzialni za planowanie
produkcji muszą sprostać licznym wyzwaniom
wynikającym ze złożoności tego procesu oraz
silnej presji finansowej, organizacyjnej i rynkowej.
Kluczowa okazuje się szybka reakcja na wszelkie
zmiany: popytu, podaży, dostępności surowców
i parku maszynowego. Badania wyraźnie pokazują,
że w cały proces zaangażowanych jest wiele
osób, co z jednej strony podkreśla znaczenie tego
obszaru, z drugiej zaś wskazuje na braki związane
z automatyzacją samego planowania.
„W terminie i po niskich kosztach”
Zdaniem ankietowanych zdecydowanie
najważniejszą spodziewaną korzyścią płynącą
z wykorzystania rozwiązań IT do operacyjnego
planowania produkcji jest zapewnienie terminowości
dostaw. Potwierdziło to aż 75% ankietowanych.
Wiąże się ona pośrednio z kwestią skrócenia cyklu
produkcyjnego, która jest bardzo istotna (+2)
dla 38% badanych i istotna (+1) dla 40%.
Dla zapewnienia wysokiej terminowości znaczenie
ma również minimalizacja czasów przezbrojeń –
dla 42% pytanych jest to cel istotny (+1).
Niezwykle ważne są także kwestie związane
z oszczędnościami. Minimalizacja kosztów
produkcji (dla 46% ankietowanych jest celem
najważniejszym) i maksymalizacja wykorzystania
zasobów (44% oznaczyło to pytanie symbolem +2).
1 osoba
15%
2-3 osoby
49%
4-5 osób
17%
powyżej
5 osób
19%
Minimalizacja
kosztów produkcji
-2 4%
-1 0%
0 23%
+1 27%
+2 46%
Maksymalizacja
wykorzystania zasobów
-2 0%
-1 0%
0 23%
+1 33%
+2 44%
Terminowość
-2 0%
-1 0%
0 8%
+1 17%
+2 75%
Minimalizacja
czasu produkcji
-2 0%
-1 0%
0 23%
+1 40%
+2 38%
Minimalizacja
czasów przezbrojeń
-2 0%
-1 8%
0 21%
+1 42%
+2 29%
-2 – najmniej ważne
+2 – najbardziej ważne
30
Firmy są zmuszone do planowania zleceń
produkcyjnych w środowisku swoich prawdziwych,
ograniczonych zasobów, a co za tym idzie
informować klientów o realnym terminie
wykonania. Często przedsiębiorstwa
przechodzą z planowania tygodniowego
na harmonogramowanie dzienne, godzinowe,
a czasami jeszcze dokładniejsze. Niezmiennie,
muszą optymalizować przebiegi w celu obniżenia
kosztów. Używane do tego celu oprogramowanie
najczęściej nie jest w stanie odwzorować realnych
ograniczeń występujących w procesie produkcji.
Celem, na który firmy zwracają najmniejszą
uwagę jest minimalizacja wielkości partii/serii
produkcji. Dla 61% respondentów nie ma on
większego znaczenia, natomiast aż 19% uznało
go za zupełnie nieistotny. Minimalizacja stanów
magazynowych i minimalizacja pracy w toku,
to według odpowiednio 18% i 19% cele mało
lub bardzo mało znaczące.
Gdzie ERP nie może, tam APS dotrze
Badanie koncentrowało się również na analizie
narzędzi wykorzystywanych do wspierania
procesu tworzenia okresowego planu produkcji
w przedsiębiorstwie. Okazuje się, że aż 77%
ankietowanych korzysta z rozwiązań klasy ERP/
MRPII. Co ciekawe podobna liczba (71%)
nadal wspomaga się arkuszami kalkulacyjnymi.
Może to wskazywać na korzystanie z danych
zgromadzonych w systemach ERP, aby później
realizować zadania planistyczne z użyciem tych
danych w Excelu. 19% korzysta z systemu realizacji
produkcji MES, a 5% pracuje na własnych aplikacjach
dedykowanych. 13% przedsiębiorstw wykorzystuje
narzędzia dedykowane do zaawansowanego
harmonogramowania produkcji, czyli systemy APS.
– O ile rynek systemów ERP możemy uznać w Polsce
za dojrzały oraz nasycony, o tyle rynek systemów APS
(Advanced Production Scheduling) wychodzi
Rozwiązania IT wykorzystywane w przedsiębiorstwie
MRPII/ERP (planowanie zasobówprzedsiębiorstwa)
Arkusze kalkulacyjne MS EXCEL
MES (system realizacji produkcji)
APS (zaawansowane planowanie iharmonogramowanie)
Własne aplikacje dedykowane
EDI (elektroniczna wymiana danych)
BI (Business Intelligence)
SFC (system sterowania produkcją)
DRP (planowanie zasobów dystrybucyjnych)
Inne
10%
10%
6%
19%
13%
71%
77%
2%
2%
2%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90%
31
dopiero z początkowego stadium rozwoju. Badania
wskazują, że część firm produkcyjnych podjęła
już decyzję o wprowadzeniu zaawansowanych
narzędzi planistycznych traktując je jako kluczowy
element budowania przewagi nad konkurencją.
13% firm biorących udział w ankiecie jest w swoistej
awangardzie firm produkcyjnych, czerpiąc szereg
korzyści, takich jak lepsza reakcja na zmiany,
przyspieszenie procesu planowania, czy lepsze
wykorzystanie zespołu – podkreśla Paweł
Koprowski, Dyrektor Sprzedaży DSR.
Systemy ERP wykorzystywane są jedynie
do głównego planowania produkcji (63%)
i tradycyjnego planowania potrzeb
materiałowych (60%).
Jeżeli chodzi o najczęstsze metody dystrybucji
okresowych planów produkcji to cały czas
wykorzystywane są najprostsze formy takie
jak arkusze kalkulacyjne (65%) i papierowe
przewodniki produkcyjne (42%). Moduły
systemów klasy MRP/ERP funkcjonują w 29%
przedsiębiorstw. Trochę inaczej sytuacja prezentuje
się w przypadku zbierania danych dotyczących
realizacji krótkoterminowego planu produkcji,
gdzie najwięcej firm wykorzystuje systemy MRP/
ERP (54%). Z arkuszy kalkulacyjnych korzysta 46%,
a z przewodników produkcyjnych 35%.
– Badania potwierdzają, że firmy wciąż stosują
uniwersalne narzędzia wspomagające układanie
harmonogramów, takie jak arkusze kalkulacyjne.
Problem w tym, że nie uwzględniają one kontroli
materiałowej lub stosują uproszczone rozwiązania.
Złożoność procesu harmonogramowania już w średnio
skomplikowanych procesach produkcyjnych zmusza
planistów do ograniczenia harmonogramowania
tylko do wybranych poziomów w strukturze
złożenia produktu (Bill Of Material) – narzędzia
o ograniczonych możliwościach nie pozwalają
na śledzenie zależności pomiędzy poziomami
złożenia produktu – dodaje Paweł Koprowski.
Podsumowanie
Dla firm wytwórczych w procesie planowania
operacyjnego najważniejsza jest terminowość
i optymalizacja kosztów. Mniej istotna jest
minimalizacja stanów magazynowych i pracy w toku,
a za najmniej ważny cel zostały uznane kwestie
z związane z minimalizacją wielkości partii/serii.
Elementy planowania produkcji wspierane przez system ERP
Główne planowanie produkcji
Planowanie potrzeb materiałowych
Zagregowane planowanie produkcji
Brak
Szeregowanie i harmonogramowanie
Bilansowanie zdolności produkcyjnych
60%
63%
21%
19%
17%
25%
0% 10% 20% 30% 40% 50% 60% 70%
32
O DSR
Powstała w 2005 roku spółka DSR Sp z o.o. (Dynamika Synergia Rezultat) jest dostawcą rozwiązań informatycznych
wspierających organizację i zarządzanie przedsiębiorstwem w obszarze produkcji i logistyki. DSR proponuje firmom wytwórczym
szeroki zakres usług: od konsultingu biznesowego, poprzez wdrożenia ERP aż do sterowania operacyjnego wspieranego przez:
APS, Automatyczna Identyfikacja – kody kresowe i systemy MES. Klienci DSR to zarówno duże korporacje jak i firmy lokalne.
Wyróżnikiem DSR jest konsekwentna identyfikacja procesów Klienta, w których inwestycja w IT przyniesie najlepsze efekty (ROI).
Piotr Rojek
Jest prezesem zarządu DSR. Odpowiada za kształtowanie strategii rozwoju spółki, współpracę z partnerami
technologicznymi, koordynację obszaru R&D oraz doradztwo w zakresie poprawy efektywności firm produkcyjnych.
Zarządza procesem tworzenia nowych rozwiązań informatycznych. Karierę zawodową rozpoczynał w firmie QAD,
gdzie odpowiadał za obsługę kluczowych klientów firmy. Realizował projekty informatyczne i doradcze m.in. dla takich
firm, jak 3M, AB, JTT Computers, TIM SA, Zetkama. Jest absolwentem Politechniki Wrocławskiej. Odebrał również dyplom
MBA Helsinki School Of Economics i Wyższej Szkoły Bankowej w Poznaniu.
– Zauważalnym trendem w dziedzinie
zaawansowanego planowania produkcji jest
nacisk na czas dostaw – mówi Paweł Koprowski.
To czynnik wpływający na konkurencyjność
producentów. Zawsze bardzo ważny – szczególnie
dla rynku polskiego określanego jako „wrażliwy
cenowo” – jest aspekt kosztowy. Firmom zależy
na utrzymaniu niskiego kosztu wytworzenia,
co sprawia, że ich towary są cenowo konkurencyjne.
Tu oczywiście nic się nie zmieniło – presja cenowa
jest cały czas mocna, jeśli nie mocniejsza niż kiedyś.
Przedsiębiorstwa do opracowania planów
wykorzystują narzędzia MRP/ERP i arkusze
kalkulacyjne MS EXCEL. Te drugie są głównym
narzędziem wykorzystywanym do dystrybucji
okresowych planów produkcji. Obserwujemy
tendencję wielu firm do poszukiwania
nowych, skuteczniejszych narzędzi planowania
i harmonogramowania produkcji.
Dostawcy ERP zarówno globalni jak i lokalni,
oferują rozwiązania jedynie wspomagające
harmonogramowanie. Są to proste produkty
nie mające cech systemów APS, jedynie
pomagające planistom poprzez proste metody
harmonogramowania, wizualizację obciążenia
zasobów, itd. Ich zastosowanie co prawda pomaga
w utrzymaniu spójności danych (w przeciwieństwie
do rozwiązań opartych na arkuszach kalkulacyjnych),
jednak nie wprowadza jakościowej zmiany
w systemie harmonogramowania.
Ankieta jest dostępna na stronie: http://www.dsr.com.pl/aktualnosci/wypelnij-ankiete-odbierz-nagrode
33
1
Optymalizacja IT
Idee na czas zmiany
Przeczytaj pierwszą edycję raportu
34
Outsourcing:
prościej, bezpieczniej, taniej
Wspomniana optymalizacja dotyczy m.in.
przechowywania i przetwarzania danych.
Zapewnienie bezpieczeństwa i ciągłości dostępu
do danych nie jest kwestią wyboru, a czysto
biznesową kalkulacją. Prostym sposobem
jest relokacja zasobów teleinformatycznych
przedsiębiorstwa do zewnętrznego centrum
danych, a więc outsourcing. Jednak aby
przeprowadzić ten proces z sukcesem, należy się
do takiej zmiany odpowiednio przygotować.
Outsourcing tak, ale kiedy i jak?
O outsourcingu firmy powinny myśleć cały czas,
choć decyzja o powierzeniu zasobów podmiotowi
zewnętrznemu może być poprzedzona różnymi
innymi decyzjami czy warunkami. Jednym z nich
może być efekt skali. W większej organizacji
wymagania związane z własną infrastrukturą
sieciową i serwerową rosną w szybszym tempie.
Z kolei mniejsze przedsiębiorstwa nie chcą mnożyć
kosztów, utrzymywać sztabu specjalistów i chętnie
korzystają z outsourcingu.
Dynamiczny rozwój firmy oznacza często
konieczność rozszerzenia kadry, w tym zespołu IT.
Im bogatsze portfolio świadczonych usług i więcej
obsługiwanych klientów, tym silniejsza potrzeba
stabilnego i bezpiecznego przechowywania danych,
szybkiego dostępu do sieci, ale też usprawnienia
wszystkich procesów z tym związanych. To z kolei
rodzi potrzebę skorzystania z usług specjalistów,
którzy skutecznie zapanują nad wszystkimi
działaniami nawet wtedy, gdy firma powierzy swoje
zasoby IT zewnętrznemu partnerowi. Przeczy to
powszechnej opinii, że outsourcing wiąże się
z redukcją etatów w firmie.
W przypadku firm średniej wielkości potrzeba
zatrudnienia managera, który będzie nadzorował
pracę zespołu specjalistów IT, delegował zadania,
wyznaczał cele i kontrolował ich realizację – nie
wykonując przy tym pracy operacyjnej – może być
sygnałem do rozpoczęcia poszukiwań partnera
do zarządzania zasobami IT firmy.
Bywa, że sugestia bądź rekomendacja
powierzenia firmowej infrastruktury IT
zewnętrznemu dostawcy wychodzi od osoby
lub działu zajmującego się finansami. Należy
bowiem pamiętać, że infrastruktura sieciowa
to żywy organizm. W sensie dosłownym,
bo należy zatrudnić kompetentnych specjalistów,
którzy będą sprawować pieczę na całością,
Dynamiczny wzrost ilości danych generowanych w ostatnich latach wymusza na firmach
i instytucjach poszukiwanie nowych, tańszych rozwiązań IT i alternatywnych modeli
działalności biznesowej. Dotyczy to przedstawicieli praktycznie wszystkich sektorów
rynkowych. Rozwiązania dedykowane działom IT, które sprawdzały się jeszcze kilka lat temu,
dzisiaj stają się dla przedsiębiorstw ciężarem zwiększającym koszty. Postępująca transformacja
rynku IT, której jesteśmy świadkami sprawia, że zarówno małe przedsiębiorstwa, jak i duzi
gracze stanęli przed wyzwaniem tworzenia nowych strategii. Strategii, dzięki którym możliwa
będzie przede wszystkim optymalizacja procesów operacyjnych, a w dalszej perspektywie
także redukcja kosztów.
Robert Paszkiewicz, ATM S.A.
35
ale też w sensie technicznym. Sprzęt bywa zawodny,
ulega awariom, starzeje się – to oznacza kolejne
inwestycje. W przypadku średnich i dużych firm
jest tylko kwestią czasu, aż kadra odpowiedzialna
za płynność i stabilność finansową zwróci uwagę
na generujący coraz większe koszty dział IT.
Plan działania
Po podjęciu decyzji o outsourcingu zasobów
należy określić potrzeby przedsiębiorstwa.
Chodzi tu o sprecyzowanie celów biznesowych
i – przede wszystkim – wymagań wobec dostawcy,
takich jak: zakres współpracy i świadczonych
usług, czas realizacji czy jasne określenie obszarów
odpowiedzialności. Ponadto warto zadbać
o niezbędne szkolenia dla kadry IT, aby przyszła
współpraca była płynna i bezproblemowa.
Najczęściej takie szkolenia, już od pierwszego
etapu projektu, zapewnia partner, który będzie
świadczył usługę kolokacji lub hostingu.
Przygotowując plan należy także określić obszar
największego ryzyka. W przypadku przenoszenia
zasobów do centrów kolokacyjnych dostawcy, będą
to oczywiście dane firmy. Zarówno te o charakterze
wewnętrznym, a więc dotyczące działalności
samego przedsiębiorstwa, jak i zewnętrzne –
dane klientów, akcjonariuszy czy partnerów.
Bardzo ważnym elementem jest także włączenie
w cały proces pracowników, którzy potem będą
odpowiedzialni za kontakt z firmą świadczącą
usługę outsourcingu. Mowa tu o wszystkich
etapach projektu – od fazy początkowej
po fizyczne przeniesienie zasobów. Tak samo
istotne jest jasne określenie osób odpowiedzialnych
za projekt po stronie partnera outsourcingowego,
w tym ich zakresu obowiązków. W biznesie,
gdzie w grę wchodzi bezpieczeństwo poufnych
i wrażliwych danych, wzajemne zaufanie powinno
być priorytetem.
Kierunek: centra danych
Związany z potrzebą optymalizacji procesów
biznesowych, outsourcing usług do centrów
danych spowodowany jest kilkoma dodatkowymi
czynnikami. Z pewnością jest to postępująca
digitalizacja zarówno biznesu, jak i sektora
publicznego, rozwój i standaryzacja technologii
LTE, rozwój modelu e-commerce, wzrost liczby
urządzeń mobilnych i ilości przesyłanych danych
oraz rosnące zapotrzebowanie na transmisje
wideo w jakości HD/UHD, rozwój gier i mediów
społecznościowych. Coraz większy wpływ
na popyt na usługi w centrach danych mają
też rozwiązania chmurowe.
Z terminami: kolokacja, hosting czy cloud
computing polski rynek zdążył się już oswoić.
Nie wywołują już one takich emocji i wątpliwości,
jak jeszcze kilka lat temu. Firmy zrozumiały,
że zarządzanie rosnącymi w ekspresowym
tempie wolumenami danych jest często ponad
ich możliwości organizacyjne i infrastrukturalne.
Dość powiedzieć, że do 2020 roku ilość
wygenerowanych przez ludzkość danych wyniesie
40 bilionów gigabajtów. To aż dziesięciokrotnie
więcej niż dziś. Coraz bardziej istotna staje
się ochrona tych wszystkich informacji przed
dostępem przez niepowołane osoby.
Budować czy wynajmować?
Alternatywą dla przeniesienia swoich zasobów
do wybranego centrum danych jest oczywiście
stworzenie własnej serwerowni i powierzenie
zarządzania nią wykwalifikowanemu personelowi IT.
Jednak wybudowanie serwerowni średniej
wielkości, która spełni wszystkie standardy
bezpieczeństwa, to koszt kilkudziesięciu milionów
złotych. Do tej kwoty należy jeszcze dodać
przyszłe wydatki związane z utrzymaniem obiektu.
Nie wszyscy są w stanie sprostać tak wysokiemu
progowi inwestycyjnemu.
36
To z kolei przekłada się na dynamiczny wzrost
zainteresowania usługami kolokacji i hostingu.
W tym modelu firma zewnętrzna świadczy usługę
na określonych w kontrakcie warunkach i w zamian
za wynegocjowaną stawkę oferuje parametry
usługi regulowane przez SLA (Service Level
Agreement). Daje tym samym gwarancję jakości
i ułatwia kontrolę wydatków ponoszonych na
funkcjonowanie środowiska IT. Na niej spoczywa
także utrzymanie zasobów, ale i wsparcie rozwoju
biznesu klienta poprzez gotowość do zaspokojenia
jego zmieniających się potrzeb. U elastycznego
dostawcy klient w miarę swojego rozwoju
nie musi rozbudowywać własnej infrastruktury,
ale na życzenie otrzymuje do swojej dyspozycji
odpowiednią ilość nowych zasobów. Ponadto
korzystanie z takich produktów, jak serwery
dedykowane w zewnętrznych centrach danych,
pozwala też na elastyczność w doborze konfiguracji
sprzętowej i swobodę ewentualnej rezygnacji
z usługi w dowolnym momencie.
Jeśli wynająć, to od kogo?
Przed podjęciem decyzji o tym, komu powierzymy
nasze zasoby, warto dobrze przyjrzeć się ofercie
rynkowej i sprawdzić, które obiekty są nowoczesne
i utrzymują najwyższe standardy. Powód jest
prosty. Centra danych są różne, a o bezpieczeństwie
decydują często detale. Warto więc sprawdzić
referencje dostawców i wybierać tych
wypróbowanych i posiadających odpowiednie
doświadczenie. Czego więc oczekiwać?
Poza przytoczoną wcześniej optymalizacją kosztów,
kluczowe dla każdej firmy jest bezpieczeństwo
danych oddawanych „pod opiekę” zewnętrznego
dostawcy. Warto więc sprawdzić, czy centrum
danych jest wyposażone m.in. w redundantną
klimatyzację oraz niezależne tory zasilania
miejskiego i wewnętrznego z podtrzymaniem
UPS i dodatkowym agregatem prądotwórczym.
Równie ważna jest łączność telekomunikacyjna
w obiekcie, w tym niezawodny dostęp do Internetu,
umożliwiający szybki i stabilny transfer danych.
Atutem dostawcy jest też dysponowanie
powierzchnią kolokacyjną w różnych lokalizacjach,
co jest niezbędne do świadczenia usługi typu DRC
(DisasterRecovery Center). Dzięki temu usługodawca
może zapewnić klientowi nieprzerwany dostęp
do danych nie tylko na poziomie pojedynczych
systemów, ale i całego obiektu.
Ponadto należy sprawdzić mechanizmy, które
zapewniają właściwy poziom kontroli dostępu
do danych i informacji oraz dostępu fizycznego
do kluczowych elementów infrastruktury
teleinformatycznej. Powinna to być nie tylko
ochrona i system kontroli dostępu, w tym
monitoring CCTV, ale też utrzymanie systemu
gaszenia oraz opieki operatorskiej i serwisowej.
Poziom bezpieczeństwa dodatkowo podnoszą:
możliwość wymiany w krótkim czasie podzespołów
lub uszkodzonego serwera, ochrona sieci (w tym
rozwiązania firewall) i system anty-DDoS, a także
backup danych i zabezpieczenie dostępu do paneli
37
administracyjnych za pomocą certyfikatu SSL,
który szyfruje i chroni przed przechwyceniem
poufne dane przesyłane pomiędzy serwerem
a użytkownikiem.
Firma dokonująca wyboru zewnętrznego
centrum danych powinna dowiedzieć się także,
czy jego lokalizacja jest właściwa ze względu
na polskie i unijne prawo w zakresie ochrony
danych osobowych. Jednocześnie warto zawrzeć
z dostawcą usług centrów danych umowę typu
SLA (Service Level Agreement), która pozwala
zdefiniować m.in. zakresy odpowiedzialności
po stronie dostawcy i użytkownika oraz
podnosić poziom jakości i bezpieczeństwa
usług w oparciu o najlepsze praktyki.
Robert Paszkiewicz
Od blisko 10 lat związany z branżą IT, w firmach technologicznych zdobywał różnorodne doświadczenie na styku biznesu
i techniki, specjalizując się w zarządzaniu produktami hostingowymi, rozwiązaniami w obszarze bezpieczeństwa i usługami
w centrach danych. Obecnie, jako Dyrektor Marketingu w firmie ATM S.A., oferującej usługi telekomunikacyjne pod markami
ATMAN i Thinx Poland, tworzy strategię marketingową i produktową spółki. Wcześniej pracował m.in. w home.pl S.A.,
prowadząc działania promocyjne firmy jako Marketing Manager, a jako Kierownik Produktu „Bezpieczeństwo” odpowiadał
za wdrożenia nowych rozwiązań zwiększających bezpieczeństwo stron www i chroniących komputery klientów.
Prywatnie pasjonat górskich wycieczek i miłośnik fotografii.
38
Optymalizacja, oszczędności
i transformacja w obszarze danych
Urszula Jaworska
Cały ten cyfrowy zgiełk
Współczesny biznes często boryka się z szumem
informacyjnym. Chaosem wynikającym
z napływających danych. Ich ilość, źródła
i formaty są tak wielorakie, że rodzi to zupełnie
nowe problemy operacyjne. Niespodziewanie
powstają także nowe szanse dla modernizacji
biznesu. Cyfrowy wszechświat, obejmujący ogół
danych wytworzonych przez ludzkość, podwaja
się co dwa lata. Pomiędzy rokiem 2013 a 2020
wzrośnie dziesięciokrotnie – od 4,4 bilionów
gigabajtów do 44 bilionów gigabajtów1
.
Dwie trzecie danych jest generowane lub
rejestrowane przez konsumentów lub pracowników,
ale odpowiedzialność za 85 proc. światowych
danych ponoszą przedsiębiorstwa. Według
IDC liczba urządzeń lub przedmiotów, które
można połączyć z Internetem, zbliża się obecnie
do 200 mld, a 7 proc. z nich (14 mld) jest już
podłączonych do Internetu i komunikuje się.
IDC przewiduje, że do 2020 r. liczba podłączonych
do sieci urządzeń wzrośnie do 32 miliardów
i będzie wytwarzać 10 proc. światowych danych2
.
Zmiana ilości doprowadziła do zmiany jakości.
Zmiana skali spowodowała zmianę statusu.
Taki rozwój wypadków przewidywał Bob Metcalfe.
Prawo Metcalfe’a mówi, że użyteczność sieci
zwiększa się proporcjonalnie do kwadratu ilości
węzłów podłączonych do niej.
Dane, informacje, wiedza
Przetwarzamy dane ponieważ niosą użyteczne
dla biznesu informacje. Informacje zinterpretowane
w kontekście posiadanej wiedzy, przez
doświadczonego managera mogą przynieść
1	 badanie Digital Universe firmy EMC
2	 według IDC
biznesowi nową wiedzę. Skoro 2/3 danych generują
nasi klienci i pracownicy, to wiedza ta może mieć
wartość biznesową. Przetwarzamy duże zbiory
danych także dlatego, że już można. Legendarny
naukowiec–przedsiębiorca, Oren Etzioni, zajmujący
się rozkręcaniem biznesów operujących ogromnymi
ilościami danych, zwraca uwagę, że kilka lat
temu przetwarzanie big data byłoby niemożliwe.
Przetwarzanie i gromadzenie danych było zbyt
drogie. Ponieważ koszty operowania danymi
spadły, możliwe jest także operowanie na danych,
które przestały już być użyteczne. Przydatność
danych nie kończy się już z chwilą osiągnięcia
celu, dla którego są gromadzone… Duże, zmienne,
różnorodne i niestrukturyzowane zbiory danych
powodują, że ich przetwarzanie i analiza jest
bardziej złożona, ale jednocześnie wartościowa.
Lapidarnie ujmuje to slogan: „śmieci na wejściu,
wartość na wyjściu” (ang. garbage in, value out).
Big data – jak zacząć
Klasycznym sposobem wyłuskiwania informacji
i wiedzy z baz danych są w przedsiębiorstwach
hurtownie danych (ang. data warehouse (mining)).
Krzysztof Sobieszek podczas spotkania Warsaw
Hadoop User Group stwierdził, że big data zaczyna
się kiedy „złamie się” łopata do data miningu.
Kiedy ilość (ang. volume), zmienność (ang. velocity)
i różnorodność (ang. variety) są na tyle duże,
że klasyczne podejście ukazuje swoją słabość.
Typowy nietrywialny projekt hurtowni danych
trwa co najmniej 1 rok3
. Wymaga zdefiniowania
celów biznesowych i modelu biznesowego pod
kątem hurtowni danych, przeniesieniu modelu
biznesowego na poziom modelu danych,
opracowaniu strategii budowy hurtowni,
3	 ocena eksperta Sean’a Kelly
39
założeniu centralnego repozytorium metadanych,
wyborze „tematu” dla pierwszej hurtowni danych,
identyfikacji potrzeb informacyjnych możliwych
do zaspokojenia z poszczególnych źródeł oraz
zdefiniowaniu danych wejściowych do hurtowni
wraz z algorytmami kontroli ich jakości. Trudno
takie „narzędzie” zmodyfikować, by nie wspomnieć
o podstawowej trudności – jak przetwarzać
dane, których znaczenie i model biznesowego
wykorzystania mamy dopiero odkryć...
W klasycznym podejściu (ang. business
intelligence) analizuje się przeszłość
w kontekście znanego modelu biznesowego
i jego potrzeb informacyjnych. Tworzone
raporty, przekroje danych, wizualizacje
mogą dostarczyć wartościowych informacji
o kondycji przedsiębiorstwa. Jeśli zależy nam
na optymalizacji i utrzymaniu biznesu już
istniejącego, badaniu obecnych klientów jest
to podejście wystarczające. Jeśli biznesowi
zależy na poszukiwaniu nowych dróg rozwoju,
analizie klientów potencjalnych, poszukiwaniu
nowych transformacji można dokonać właśnie
wprowadzając podejście big data. Wszystko
zaczyna się więc od odpowiedzi na pytanie –
na czym zależy biznesowi?
Data Science w Polsce
Podejście big data bliższe jest rozwiązywaniu
dochodzeniom Sherlocka Holmes’a. Wymaga
także odpowiednich predyspozycji. W metodzie
tej analityk (ang. data scientist) wykorzystując
wielorakie zbiory danych, różnych formatów,
różniące się strukturą, korzystając przy tym
z różnych narzędzi dedukuje jakie zachodzą
pomiędzy nimi związki i jakie biznesowe
konsekwencje z tego wynikają. W metodzie
tej liczy się szczególnie umiejętność tworzenia
nowych pytań, poszukiwanie odpowiedzi (raczej
niż raportowanie), prognozowanie, interakcja
z danymi. Wyróżnikiem jest również to, że big data
często dotyczy danych napływających na bieżąco
(ang. real-time) a nie tylko danych przeszłych.
Z drugiej strony ogromna ilość danych badanych
powoduje, że niekoniecznie trzeba skupiać się
na dokładnym wyniku. Często przybliżony wynik
mówi wystarczająco dużo o ile analiza nie wykaże,
że wyjątki mają znaczenie i mówią o czymś
zupełnie innym, albo zwracają uwagę na szczegół
dotychczas niezauważany. Wbrew pozorom
big data wymaga solidnego przygotowania
i wiedzy, bo często korelacja pomiędzy danymi
nie oznacza związku przyczynowo – skutkowego
(ang. correlation is not causation). Przykładowo
prawdziwa jest taka oto korelacja, że Szwajcarzy
spożywają najwięcej czekolady i mają także
najwięcej noblistów. Nie wynika z tego jednak,
że jeśli zwiększymy spożycie czekolady mamy
większą szansę na Nobla.
40
Istnieją także nieoczywiste, zaskakujące związki
wynikania. Brytyjski tygodnik The Economist ustalił
mianowicie, że porównanie cen Big Maca w różnych
krajach do jego ceny w USA pozwala na ustalenie,
czy waluty danych krajów są przewartościowane
czy niedowartościowane. The Economist wprowadził
Wskaźnik Big Maca w 1986 r. i od tamtego czasu
raz do roku publikuje jego obliczenia.
W Polsce możliwość wymiany doświadczeń
w obszarze big data oferują spotykające się
regularnie grupy skupiające entuzjastów big data,
np.: Data Science Warsaw, Warsaw R User Group
Meeteup, Warsaw Hadoop User Group czy Warsaw
Cassandra User. Jak mówi chińskie przysłowie
podróż tysiąca kroków zaczyna się od postawienia
pierwszego.
Urszula Jaworska
Analityk biznesowy i data scientist.
Z wykształcenia fizyk cząstek elementarnych, zawodowo związana z branżą usług IT. Drogę zaczynała jako Kierownik
Projektów (m. in. projekt STAREO dla ING Bank Śląski – pierwsze w Polsce masowe wdrożenie nowego standardu
placówek detalicznych banku), obecnie zajmuje się analizą biznesową i zagadnieniami big data. Brała udział w projektach
wdrożeniowych w bankowości (PKO BP, Nordea), sektorze publicznym (PKP PLK S.A., PKP Centrala, ZUS), konsultingowych –
metodyki zarządzania projektami (kolejnictwo, gazownictwo), Data Governance (ZUS). Zainteresowania: „poszukiwanie
diamentów” w dużych zbiorach danych; wędrówki górskie.
41
1
Mobilność
1
Nowoczesne
centrum danych
1
Bezpieczeństwo IT
Raporty i ich omówienia na portalu it-manager.pl
42
Najważniejsze są relacje
Stanisław Bochnak, Robert Jesionek: W jaki
sposób się dzisiaj oszczędza? Jakie możliwości
ma do dyspozycji CIO?
Krzysztof Jarosz: Oszczędzać można zasadniczo
na dwa sposoby. W pierwszej kolejności poszukujemy
maksymalnie prostych rozwiązań, natomiast innym
sposobem jest spojrzenie na całość procesów i jego
kosztów oraz możliwych oszczędności, nie tylko
w obszarze wsparcia informatycznego tego procesu.
Jest kilka sposobów na oszczędzanie, np.: w zakresie
umów suportowych, liczby osób zaangażowanych
w realizację procesów, czy automatyzacji procesów.
Możemy również przeprowadzić inwentaryzację
oprogramowania i szukać oszczędności w tym
obszarze, albo w przypadku umowy suportowej,
zamiast kupować u producenta, można zrobić zakupy
u partnera, gdzie nie tracąc na jakości, uzyskamy
efekt ekonomiczny. Te oszczędności po prostu
trzeba zrealizować. Prawdziwe oszczędzanie,
prawdziwa praca zaczyna się później.
Niezbędne w oszczędzaniu są zmiany strukturalne.
Czy tego chcemy czy nie, informatyka jest obszarem
wspierającym. Wyjątkami są bankowość, czy handel
elektroniczny, gdzie IT jest siłą napędową biznesu,
bez której nic nie można zrobić. Znajduje to
odzwierciedlenie w hierarchii organizacyjnej:
w tych branżach są członkowie zarządu
odpowiedzialni tylko i wyłącznie za IT.
Procesowy model oszczędzania, który rozpoczyna
się od spojrzenia na sposoby wspierania biznesu,
pozwala na optymalizację w skali całej organizacji.
Weźmy za przykład procesy księgowe, w które
są zaangażowane nie tylko osoby z księgowości,
nie tylko sam system, ale także osoby składające
zamówienia, potwierdzające wykonanie usług,
czy przyjmujący towar do magazynów itd.
Dzięki wykorzystaniu w konkretny sposób technologii
możemy oszczędzić koszty całego procesu.
To nie są koszty stricte IT, bo czasem trzeba najpierw
zainwestować w automatyzację procesu, żeby całość
informacji była lepsza, bardziej wiarygodna. Obniża
to istotnie koszt procesu. Oszczędności w firmie
to nie tylko temat IT czego nie chcą zrozumieć
niektórzy CFO, ja akurat mam szczęście.
No właśnie, czy pomysły na oszczędzanie
powinny wychodzić od IT czy od biznesu?
Osobiście chyba nigdy nie wyszedłem z takim
pomysłem. Nigdy nie rzuciłem hasła: oszczędzajmy!
Raczej proponowałem poszukiwanie optymalizacji
procesów, usprawnianie przepływu informacji.
Dokładnie tak to wyglądało, kiedy ostatnio
prowadziliśmy w firmie dyskusje dotyczące
wdrożenia platformy zakupowej. Inne znaczenie
ten projekt miał dla działu zakupów, inne
dla mnie. Kiedy przyszedłem do organizacji
proces zaopatrzeniowy nie miał odzwierciedlenia
systemowego, nie było wystarczających informacji.
Pewne trudności w tym obszarze są zrozumiałe,
ale powinny mieć charakter wyjątków, a nie stanowić
standard. Próba przekonania biznesu do rozpoczęcia
projektu polega na pokazaniu, co takie rozwiązanie
może dać firmie, np.: czy przynosi controllingowi,
Czasem, kiedy IT wychodzi z pomysłem optymalizacji, to często kończy się na niczym.
Biznes źle się z tym czuje. Pojawiają się nawet zarzuty, że IT jest ogonem i ten ogon chce
kręcić psem. Dlatego prawdziwą sztuką jest zainspirowanie biznesu, żeby zgłosił pomysł
wymyślony przez IT. Raz to się udaje, a innym razem nie – mówi Krzysztof Jarosz, CIO w firmie
PLL LOT, zdobywca tytułu Diament CIO „Strażnik transformacji” w konkursie CIO Roku 2014
w rozmowie ze Stanisławem Bochnakiem (Deloitte) oraz Robertem Jesionkiem (it-manager.pl).
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl
Optymalizacja it - Raport it-manager.pl

More Related Content

What's hot

Ład danych w czasach automatyzacji i robotyzacji
Ład danych w czasach automatyzacji i robotyzacjiŁad danych w czasach automatyzacji i robotyzacji
Ład danych w czasach automatyzacji i robotyzacjiAndrzej Sobczak
 
Strategia Data First
Strategia Data FirstStrategia Data First
Strategia Data FirstPiotr Smialek
 
Data Governance jako część ładu korporacyjnego
Data Governance jako część ładu korporacyjnegoData Governance jako część ładu korporacyjnego
Data Governance jako część ładu korporacyjnegoAndrzej Sobczak
 
Strategie przedsiębiorstw w czasach robotyzacji biznesu
Strategie przedsiębiorstw w czasach robotyzacji biznesuStrategie przedsiębiorstw w czasach robotyzacji biznesu
Strategie przedsiębiorstw w czasach robotyzacji biznesuAndrzej Sobczak
 
e-book_SAS_wizualizacja_danych_PL
e-book_SAS_wizualizacja_danych_PLe-book_SAS_wizualizacja_danych_PL
e-book_SAS_wizualizacja_danych_PLPiotr Jakubowski
 
Czy o RPA będziemy jeszcze pamiętać za dwa lata – czyli ślepy zaułek, czy moż...
Czy o RPA będziemy jeszcze pamiętać za dwa lata – czyli ślepy zaułek, czy moż...Czy o RPA będziemy jeszcze pamiętać za dwa lata – czyli ślepy zaułek, czy moż...
Czy o RPA będziemy jeszcze pamiętać za dwa lata – czyli ślepy zaułek, czy moż...Andrzej Sobczak
 
CBRE EMEA GBS - Interview with Maciej Piwowarczyk | (8-13 page) Outsourcing M...
CBRE EMEA GBS - Interview with Maciej Piwowarczyk | (8-13 page) Outsourcing M...CBRE EMEA GBS - Interview with Maciej Piwowarczyk | (8-13 page) Outsourcing M...
CBRE EMEA GBS - Interview with Maciej Piwowarczyk | (8-13 page) Outsourcing M...Maciej Piwowarczyk
 
Robotyzacja procesów biznesowych - od optymalizacji do transformacji modelu d...
Robotyzacja procesów biznesowych - od optymalizacji do transformacji modelu d...Robotyzacja procesów biznesowych - od optymalizacji do transformacji modelu d...
Robotyzacja procesów biznesowych - od optymalizacji do transformacji modelu d...Andrzej Sobczak
 
Strategia IT Security Partners - Bezpieczeństwo Informacji
Strategia IT Security Partners - Bezpieczeństwo InformacjiStrategia IT Security Partners - Bezpieczeństwo Informacji
Strategia IT Security Partners - Bezpieczeństwo InformacjiMagorzataMazur6
 
Zrozumieć wartość optymalizacji infrastruktury dla biznesu
Zrozumieć wartość optymalizacji infrastruktury dla biznesuZrozumieć wartość optymalizacji infrastruktury dla biznesu
Zrozumieć wartość optymalizacji infrastruktury dla biznesuGrzegorz Rudno-Rudzinski
 
Kierunki rozwoju BPM
Kierunki rozwoju BPMKierunki rozwoju BPM
Kierunki rozwoju BPMTomasz Gzik
 
Bpm summit2 bizmatica presentation - 21.01.2014 - final
Bpm summit2   bizmatica presentation - 21.01.2014 - finalBpm summit2   bizmatica presentation - 21.01.2014 - final
Bpm summit2 bizmatica presentation - 21.01.2014 - finalWojciech Kaszycki
 
SmallTalk - nowa komunikacja w firmie
SmallTalk - nowa komunikacja w firmieSmallTalk - nowa komunikacja w firmie
SmallTalk - nowa komunikacja w firmieAutentika
 
Elektroniczny Obieg Dokumentów [smartBusiness]
Elektroniczny Obieg Dokumentów [smartBusiness]Elektroniczny Obieg Dokumentów [smartBusiness]
Elektroniczny Obieg Dokumentów [smartBusiness]smartBusiness
 

What's hot (19)

Big Data +
Big Data +Big Data +
Big Data +
 
Ład danych w czasach automatyzacji i robotyzacji
Ład danych w czasach automatyzacji i robotyzacjiŁad danych w czasach automatyzacji i robotyzacji
Ład danych w czasach automatyzacji i robotyzacji
 
Strategia Data First
Strategia Data FirstStrategia Data First
Strategia Data First
 
Data Governance jako część ładu korporacyjnego
Data Governance jako część ładu korporacyjnegoData Governance jako część ładu korporacyjnego
Data Governance jako część ładu korporacyjnego
 
Strategie przedsiębiorstw w czasach robotyzacji biznesu
Strategie przedsiębiorstw w czasach robotyzacji biznesuStrategie przedsiębiorstw w czasach robotyzacji biznesu
Strategie przedsiębiorstw w czasach robotyzacji biznesu
 
e-book_SAS_wizualizacja_danych_PL
e-book_SAS_wizualizacja_danych_PLe-book_SAS_wizualizacja_danych_PL
e-book_SAS_wizualizacja_danych_PL
 
SMAC.PDF
SMAC.PDFSMAC.PDF
SMAC.PDF
 
Czy o RPA będziemy jeszcze pamiętać za dwa lata – czyli ślepy zaułek, czy moż...
Czy o RPA będziemy jeszcze pamiętać za dwa lata – czyli ślepy zaułek, czy moż...Czy o RPA będziemy jeszcze pamiętać za dwa lata – czyli ślepy zaułek, czy moż...
Czy o RPA będziemy jeszcze pamiętać za dwa lata – czyli ślepy zaułek, czy moż...
 
CBRE EMEA GBS - Interview with Maciej Piwowarczyk | (8-13 page) Outsourcing M...
CBRE EMEA GBS - Interview with Maciej Piwowarczyk | (8-13 page) Outsourcing M...CBRE EMEA GBS - Interview with Maciej Piwowarczyk | (8-13 page) Outsourcing M...
CBRE EMEA GBS - Interview with Maciej Piwowarczyk | (8-13 page) Outsourcing M...
 
Robotyzacja procesów biznesowych - od optymalizacji do transformacji modelu d...
Robotyzacja procesów biznesowych - od optymalizacji do transformacji modelu d...Robotyzacja procesów biznesowych - od optymalizacji do transformacji modelu d...
Robotyzacja procesów biznesowych - od optymalizacji do transformacji modelu d...
 
Strategia IT Security Partners - Bezpieczeństwo Informacji
Strategia IT Security Partners - Bezpieczeństwo InformacjiStrategia IT Security Partners - Bezpieczeństwo Informacji
Strategia IT Security Partners - Bezpieczeństwo Informacji
 
Zrozumieć wartość optymalizacji infrastruktury dla biznesu
Zrozumieć wartość optymalizacji infrastruktury dla biznesuZrozumieć wartość optymalizacji infrastruktury dla biznesu
Zrozumieć wartość optymalizacji infrastruktury dla biznesu
 
CIO Espresso
CIO EspressoCIO Espresso
CIO Espresso
 
Kierunki rozwoju BPM
Kierunki rozwoju BPMKierunki rozwoju BPM
Kierunki rozwoju BPM
 
Bpm summit2 bizmatica presentation - 21.01.2014 - final
Bpm summit2   bizmatica presentation - 21.01.2014 - finalBpm summit2   bizmatica presentation - 21.01.2014 - final
Bpm summit2 bizmatica presentation - 21.01.2014 - final
 
W poszukiwaniu doskonałych procesów - Manage or Die Collection of Inspiration
W poszukiwaniu doskonałych procesów - Manage or Die Collection of InspirationW poszukiwaniu doskonałych procesów - Manage or Die Collection of Inspiration
W poszukiwaniu doskonałych procesów - Manage or Die Collection of Inspiration
 
Prezentacja Ifs
Prezentacja IfsPrezentacja Ifs
Prezentacja Ifs
 
SmallTalk - nowa komunikacja w firmie
SmallTalk - nowa komunikacja w firmieSmallTalk - nowa komunikacja w firmie
SmallTalk - nowa komunikacja w firmie
 
Elektroniczny Obieg Dokumentów [smartBusiness]
Elektroniczny Obieg Dokumentów [smartBusiness]Elektroniczny Obieg Dokumentów [smartBusiness]
Elektroniczny Obieg Dokumentów [smartBusiness]
 

Viewers also liked

Canon - bezpieczeństwo danych
Canon - bezpieczeństwo danychCanon - bezpieczeństwo danych
Canon - bezpieczeństwo danychCanon Biznes
 
Czynniki blokujące i stymulujące rozwój małych firm
Czynniki blokujące i stymulujące rozwój małych firmCzynniki blokujące i stymulujące rozwój małych firm
Czynniki blokujące i stymulujące rozwój małych firmCanon Biznes
 
Prezentacja Ing Bank Śląski
Prezentacja Ing Bank Śląski Prezentacja Ing Bank Śląski
Prezentacja Ing Bank Śląski Dawid Koczur
 
Instynkt gry - Juli Zeh - ebook
Instynkt gry - Juli Zeh - ebookInstynkt gry - Juli Zeh - ebook
Instynkt gry - Juli Zeh - ebooke-booksweb.pl
 
Produkowanie koncentratów spożywczych
Produkowanie koncentratów spożywczychProdukowanie koncentratów spożywczych
Produkowanie koncentratów spożywczychMichał Łazarz
 
Możliwości dofinansowania zadań zw. z likwidacją niskiej emisji ze śr. wfośi ...
Możliwości dofinansowania zadań zw. z likwidacją niskiej emisji ze śr. wfośi ...Możliwości dofinansowania zadań zw. z likwidacją niskiej emisji ze śr. wfośi ...
Możliwości dofinansowania zadań zw. z likwidacją niskiej emisji ze śr. wfośi ...Beata Wójcik
 
Markery białkowe 2014 on line
Markery białkowe 2014   on lineMarkery białkowe 2014   on line
Markery białkowe 2014 on lineSkn Zdl
 
Wstęp do Planowania Leczenia w Teleradioterapii
Wstęp do Planowania Leczenia w TeleradioterapiiWstęp do Planowania Leczenia w Teleradioterapii
Wstęp do Planowania Leczenia w TeleradioterapiiTomasz Piotrowski
 
Rola pełnosprawnych rówieśników
Rola pełnosprawnych rówieśnikówRola pełnosprawnych rówieśników
Rola pełnosprawnych rówieśnikówcrisma61
 
06 zbigniew tyszka_socjologia_rodziny_a_pedagogika_rodziny_77-90
06 zbigniew tyszka_socjologia_rodziny_a_pedagogika_rodziny_77-9006 zbigniew tyszka_socjologia_rodziny_a_pedagogika_rodziny_77-90
06 zbigniew tyszka_socjologia_rodziny_a_pedagogika_rodziny_77-90Agnieszka Zawadzka
 
Zasady tworzenia i funkcjonowanie klasy integracyjnej
Zasady tworzenia i funkcjonowanie klasy integracyjnejZasady tworzenia i funkcjonowanie klasy integracyjnej
Zasady tworzenia i funkcjonowanie klasy integracyjnejAlicja Wujec Kaczmarek
 
Projektowanie WWW - Web design
Projektowanie WWW - Web designProjektowanie WWW - Web design
Projektowanie WWW - Web designAnna Piekart
 
CSA S250 STANDARD MAPPING OF UNDERGROUND UTILITY INFRASTRUCTURE
CSA S250 STANDARDMAPPING OF UNDERGROUND UTILITY INFRASTRUCTURECSA S250 STANDARDMAPPING OF UNDERGROUND UTILITY INFRASTRUCTURE
CSA S250 STANDARD MAPPING OF UNDERGROUND UTILITY INFRASTRUCTUREBob Gaspirc
 
Historia pisma do szkoly
Historia pisma do szkolyHistoria pisma do szkoly
Historia pisma do szkolybibliozso6
 

Viewers also liked (20)

Metodologia badań
Metodologia badańMetodologia badań
Metodologia badań
 
Canon - bezpieczeństwo danych
Canon - bezpieczeństwo danychCanon - bezpieczeństwo danych
Canon - bezpieczeństwo danych
 
Czynniki blokujące i stymulujące rozwój małych firm
Czynniki blokujące i stymulujące rozwój małych firmCzynniki blokujące i stymulujące rozwój małych firm
Czynniki blokujące i stymulujące rozwój małych firm
 
Prezentacja Ing Bank Śląski
Prezentacja Ing Bank Śląski Prezentacja Ing Bank Śląski
Prezentacja Ing Bank Śląski
 
Instynkt gry - Juli Zeh - ebook
Instynkt gry - Juli Zeh - ebookInstynkt gry - Juli Zeh - ebook
Instynkt gry - Juli Zeh - ebook
 
Produkowanie koncentratów spożywczych
Produkowanie koncentratów spożywczychProdukowanie koncentratów spożywczych
Produkowanie koncentratów spożywczych
 
Możliwości dofinansowania zadań zw. z likwidacją niskiej emisji ze śr. wfośi ...
Możliwości dofinansowania zadań zw. z likwidacją niskiej emisji ze śr. wfośi ...Możliwości dofinansowania zadań zw. z likwidacją niskiej emisji ze śr. wfośi ...
Możliwości dofinansowania zadań zw. z likwidacją niskiej emisji ze śr. wfośi ...
 
Wyniki Ogólnopolskiego Badania Inwestorów 2014
Wyniki Ogólnopolskiego Badania Inwestorów 2014Wyniki Ogólnopolskiego Badania Inwestorów 2014
Wyniki Ogólnopolskiego Badania Inwestorów 2014
 
Markery białkowe 2014 on line
Markery białkowe 2014   on lineMarkery białkowe 2014   on line
Markery białkowe 2014 on line
 
Wstęp do Planowania Leczenia w Teleradioterapii
Wstęp do Planowania Leczenia w TeleradioterapiiWstęp do Planowania Leczenia w Teleradioterapii
Wstęp do Planowania Leczenia w Teleradioterapii
 
Програмне забезпечення 2015- 2016.
Програмне забезпечення  2015- 2016.Програмне забезпечення  2015- 2016.
Програмне забезпечення 2015- 2016.
 
Rola pełnosprawnych rówieśników
Rola pełnosprawnych rówieśnikówRola pełnosprawnych rówieśników
Rola pełnosprawnych rówieśników
 
Park bogucki raport
Park bogucki raportPark bogucki raport
Park bogucki raport
 
06 zbigniew tyszka_socjologia_rodziny_a_pedagogika_rodziny_77-90
06 zbigniew tyszka_socjologia_rodziny_a_pedagogika_rodziny_77-9006 zbigniew tyszka_socjologia_rodziny_a_pedagogika_rodziny_77-90
06 zbigniew tyszka_socjologia_rodziny_a_pedagogika_rodziny_77-90
 
Zasady tworzenia i funkcjonowanie klasy integracyjnej
Zasady tworzenia i funkcjonowanie klasy integracyjnejZasady tworzenia i funkcjonowanie klasy integracyjnej
Zasady tworzenia i funkcjonowanie klasy integracyjnej
 
Diagnostyka układu kierowniczego i napędowego
Diagnostyka układu kierowniczego i napędowegoDiagnostyka układu kierowniczego i napędowego
Diagnostyka układu kierowniczego i napędowego
 
Urinary tract injuries
Urinary tract injuriesUrinary tract injuries
Urinary tract injuries
 
Projektowanie WWW - Web design
Projektowanie WWW - Web designProjektowanie WWW - Web design
Projektowanie WWW - Web design
 
CSA S250 STANDARD MAPPING OF UNDERGROUND UTILITY INFRASTRUCTURE
CSA S250 STANDARDMAPPING OF UNDERGROUND UTILITY INFRASTRUCTURECSA S250 STANDARDMAPPING OF UNDERGROUND UTILITY INFRASTRUCTURE
CSA S250 STANDARD MAPPING OF UNDERGROUND UTILITY INFRASTRUCTURE
 
Historia pisma do szkoly
Historia pisma do szkolyHistoria pisma do szkoly
Historia pisma do szkoly
 

Similar to Optymalizacja it - Raport it-manager.pl

Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...Jarek Sokolnicki
 
IT Breakafst for FIN 28 sierpnia 2014, Warszawa, Pałac Sobańskich
IT Breakafst for FIN 28 sierpnia 2014, Warszawa, Pałac SobańskichIT Breakafst for FIN 28 sierpnia 2014, Warszawa, Pałac Sobańskich
IT Breakafst for FIN 28 sierpnia 2014, Warszawa, Pałac SobańskichFoundation IT Leader Club Poland
 
Afc module 5 pl
Afc module 5 plAfc module 5 pl
Afc module 5 plSoniaNaiba
 
Zrozumieć wartość optymalizacji infrastruktury dla biznesu
Zrozumieć wartość optymalizacji infrastruktury dla biznesuZrozumieć wartość optymalizacji infrastruktury dla biznesu
Zrozumieć wartość optymalizacji infrastruktury dla biznesuGrzegorz Rudno-Rudzinski
 
Perspektywy Rozwoju NarzęDzi Informatycznych ZarząDzania
Perspektywy Rozwoju NarzęDzi Informatycznych ZarząDzaniaPerspektywy Rozwoju NarzęDzi Informatycznych ZarząDzania
Perspektywy Rozwoju NarzęDzi Informatycznych ZarząDzaniaguestcbb224
 
Metastorm Enterprise Suite
Metastorm Enterprise SuiteMetastorm Enterprise Suite
Metastorm Enterprise SuitePCHALAWA
 
Summit EOIF GigaCon 2017 - katalog
Summit EOIF GigaCon 2017 - katalogSummit EOIF GigaCon 2017 - katalog
Summit EOIF GigaCon 2017 - katalogJustyna Cieślak
 
Rozwiązania informatyczne w firmach
Rozwiązania informatyczne w firmachRozwiązania informatyczne w firmach
Rozwiązania informatyczne w firmachprogramysap
 
Qlik view folder_pl_j_commerce
Qlik view folder_pl_j_commerceQlik view folder_pl_j_commerce
Qlik view folder_pl_j_commercePrzemyslaw Miga
 
Zarzadzanie projektami, system ERP dla sektora MSP
Zarzadzanie projektami, system ERP dla sektora MSPZarzadzanie projektami, system ERP dla sektora MSP
Zarzadzanie projektami, system ERP dla sektora MSPSUPREMIS
 
Trendy e-commerce 2017 i opinie ekspertów na ich temat
Trendy e-commerce 2017 i opinie ekspertów na ich tematTrendy e-commerce 2017 i opinie ekspertów na ich temat
Trendy e-commerce 2017 i opinie ekspertów na ich tematConversion
 
8 kroków do optymalnej inwestycji IT
8 kroków do optymalnej inwestycji IT8 kroków do optymalnej inwestycji IT
8 kroków do optymalnej inwestycji ITIdeo Sp. z o.o.
 
8 kroków do optymalnej inwestycji
8 kroków do optymalnej inwestycji8 kroków do optymalnej inwestycji
8 kroków do optymalnej inwestycjiIdeo Sp. z o. o.
 
Forum Controllingu i Windykacji - Dzień z życia działu controllingu - nowa g...
Forum Controllingu i Windykacji  - Dzień z życia działu controllingu - nowa g...Forum Controllingu i Windykacji  - Dzień z życia działu controllingu - nowa g...
Forum Controllingu i Windykacji - Dzień z życia działu controllingu - nowa g...Cogit
 
Prezentacja z konferencji "Efektywne analizy danych oraz workflow"
Prezentacja z konferencji "Efektywne analizy danych oraz workflow"Prezentacja z konferencji "Efektywne analizy danych oraz workflow"
Prezentacja z konferencji "Efektywne analizy danych oraz workflow"ControllingSystems.pl
 
Chmura publiczna w Polsce. Śniadanie prasowe.
Chmura publiczna w Polsce. Śniadanie prasowe.Chmura publiczna w Polsce. Śniadanie prasowe.
Chmura publiczna w Polsce. Śniadanie prasowe.Deloitte Polska
 

Similar to Optymalizacja it - Raport it-manager.pl (20)

Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
Integracja danych i raportowanie w chmurze obliczeniowej Windows Azure - tran...
 
IT Breakafst for FIN 28 sierpnia 2014, Warszawa, Pałac Sobańskich
IT Breakafst for FIN 28 sierpnia 2014, Warszawa, Pałac SobańskichIT Breakafst for FIN 28 sierpnia 2014, Warszawa, Pałac Sobańskich
IT Breakafst for FIN 28 sierpnia 2014, Warszawa, Pałac Sobańskich
 
ERP jako system systemów
ERP jako system systemówERP jako system systemów
ERP jako system systemów
 
Afc module 5 pl
Afc module 5 plAfc module 5 pl
Afc module 5 pl
 
Zrozumieć wartość optymalizacji infrastruktury dla biznesu
Zrozumieć wartość optymalizacji infrastruktury dla biznesuZrozumieć wartość optymalizacji infrastruktury dla biznesu
Zrozumieć wartość optymalizacji infrastruktury dla biznesu
 
Perspektywy Rozwoju NarzęDzi Informatycznych ZarząDzania
Perspektywy Rozwoju NarzęDzi Informatycznych ZarząDzaniaPerspektywy Rozwoju NarzęDzi Informatycznych ZarząDzania
Perspektywy Rozwoju NarzęDzi Informatycznych ZarząDzania
 
Droga Rozwoju Digitalnego
Droga Rozwoju Digitalnego Droga Rozwoju Digitalnego
Droga Rozwoju Digitalnego
 
Metastorm Enterprise Suite
Metastorm Enterprise SuiteMetastorm Enterprise Suite
Metastorm Enterprise Suite
 
Summit EOIF GigaCon 2017 - katalog
Summit EOIF GigaCon 2017 - katalogSummit EOIF GigaCon 2017 - katalog
Summit EOIF GigaCon 2017 - katalog
 
Rozwiązania informatyczne w firmach
Rozwiązania informatyczne w firmachRozwiązania informatyczne w firmach
Rozwiązania informatyczne w firmach
 
Qlik view folder_pl_j_commerce
Qlik view folder_pl_j_commerceQlik view folder_pl_j_commerce
Qlik view folder_pl_j_commerce
 
Optymalizacja procesów biznesowych
Optymalizacja procesów biznesowychOptymalizacja procesów biznesowych
Optymalizacja procesów biznesowych
 
Zarzadzanie projektami, system ERP dla sektora MSP
Zarzadzanie projektami, system ERP dla sektora MSPZarzadzanie projektami, system ERP dla sektora MSP
Zarzadzanie projektami, system ERP dla sektora MSP
 
Trendy e-commerce 2017 i opinie ekspertów na ich temat
Trendy e-commerce 2017 i opinie ekspertów na ich tematTrendy e-commerce 2017 i opinie ekspertów na ich temat
Trendy e-commerce 2017 i opinie ekspertów na ich temat
 
8 kroków do optymalnej inwestycji IT
8 kroków do optymalnej inwestycji IT8 kroków do optymalnej inwestycji IT
8 kroków do optymalnej inwestycji IT
 
8 kroków do optymalnej inwestycji
8 kroków do optymalnej inwestycji8 kroków do optymalnej inwestycji
8 kroków do optymalnej inwestycji
 
Forum Controllingu i Windykacji - Dzień z życia działu controllingu - nowa g...
Forum Controllingu i Windykacji  - Dzień z życia działu controllingu - nowa g...Forum Controllingu i Windykacji  - Dzień z życia działu controllingu - nowa g...
Forum Controllingu i Windykacji - Dzień z życia działu controllingu - nowa g...
 
Prezentacja z konferencji "Efektywne analizy danych oraz workflow"
Prezentacja z konferencji "Efektywne analizy danych oraz workflow"Prezentacja z konferencji "Efektywne analizy danych oraz workflow"
Prezentacja z konferencji "Efektywne analizy danych oraz workflow"
 
Chmura publiczna w Polsce. Śniadanie prasowe.
Chmura publiczna w Polsce. Śniadanie prasowe.Chmura publiczna w Polsce. Śniadanie prasowe.
Chmura publiczna w Polsce. Śniadanie prasowe.
 
Tester.pl - Numer 10
Tester.pl - Numer 10Tester.pl - Numer 10
Tester.pl - Numer 10
 

Optymalizacja it - Raport it-manager.pl

  • 2. 2
  • 3. 3 Optymalizacja jest koniecznością 5 kroków budowania zespołu wg Łukasza Kruczka Barbara Mejssner, it-manager.pl Redukcja kosztów w IT Jak mierzyć efektywność IT Stanisław Matczak Efektywne zarządzanie informacją to największy kapitał w biznesie Rafał Jakubowski Przewaga dzięki specjalizacji Piotr Rojek, DSR Sp z o.o. Outsourcing: prościej, bezpieczniej, taniej Robert Paszkiewicz, ATM S.A. Optymalizacja, oszczędności i transformacja w obszarze danych Urszula Jaworska Najważniejsze są relacje Krzysztof Jarosz w rozmowie ze Stanisławem Bochnakiem oraz Robertem Jesionkiem Lean IT – doskonalenie na wiele sposobów Rafał Nessel, Deloitte Polska Pięć kroków skutecznej restrukturyzacji IT Asish Ramchandran, Joseph Joy, Varun Joshi, Shomic Saha, Deloitte Consulting LLP 6 12 15 18 22 28 34 38 42 46 50 Spis treści
  • 4. 4 54 54 55 55 56 56 57 Redaktor naczelny: Robert Jesionek Współpraca redakcyjna: Barbara Mejssner Projekt graficzny i skład: Monika Bucoń Optymalizacja na portalu it-manager.pl Model usług telco do przedefiniowania Hamulec cyfrowej transformacji Lean IT – produktywność i efektywność w organizacji Jak obniżyć koszty backupu Miliony stracone na licencjach Szukając większej efektywności Innowacyjność a wyniki finansowe Styczeń 2015
  • 5. 5 Więcej niż dyskusja o IT www.it-manager.pl/deloitte/cio-programme © 2014 Deloitte Polska
  • 6. 6 Optymalizacja jest koniecznością Firmy z Europy Środkowo-Wschodniej w dalszym ciągu odczuwają skutki ostatniej recesji na świecie i kryzysu w strefie euro. Po niedawnym spowolnieniu gospodarki, przedsiębiorstwa wprowadziły ścisłą kontrolę wydatków, zadbały o wsparcie procesów biznesowych, a także wyeliminowały programy i projekty niemające bezpośredniego związku z zyskiem. Trudne środowisko sprawiło, że firmy ponownie analizują swoje priorytety biznesowe i strategiczne. Kładą przy tym większy nacisk na optymalizację środowisk informatycznych i procesów. W połączeniu z szybszym tempem opracowywania technologii jest to źródłem zasadniczej zmiany roli dyrektora ds. informatycznych (CIO), który ma już nie tylko wspierać rozwój biznesowy i innowacyjność, ale wręcz być ich motorem. Badanie IDC Firma IDC zrealizowała niedawno badanie z udziałem 180 dużych przedsiębiorstw, w ramach którego przeprowadzono 200 ankiet z dyrektorami ds. informatycznych i dyrektorami generalnymi (CEO) podmiotów działających w Europie Środkowo- Wschodniej. Celem badania była analiza aktualnych strategii informatycznych i sposobów stosowanych przez dyrektorów ds. informatycznych, aby sprostać konieczności optymalizacji infrastruktury IT, a jednocześnie wspierać szersze strategiczne potrzeby biznesowe swoich firm. Analitycy IDC stwierdzili, że budżety IT są wprawdzie w dalszym ciągu pod ścisłą kontrolą, a normą wciąż są standardowe, przyrostowe poprawki i aktualizacje posiadanej infrastruktury, jednak dyrektorzy dążą do bardziej kompleksowego przekształcenia środowisk informatycznych w skali całego przedsiębiorstwa. Taka transformacja ma im pozwolić dotrzymać kroku nieprzerwanie zmieniającym się potrzebom biznesowym firm. Badanie wykazało, że czołowe priorytety strategiczne w regionie na nadchodzący rok to przede wszystkim optymalizacja procesów biznesowych, na dalszych miejscach znalazły się: redukcja kosztów oraz kwestia poprawy jakości. Stwierdzono także, iż dyrektorzy IT są skłonni zrestrukturyzować swoje środowiska IT, aby lepiej sprostać wyzwaniom nowych czasów. Taka transformacja może być dokonana za pomocą szerokiej adaptacji najnowszych osiągnięć IT – takich, jak chmura, mobilność, big data oraz nowoczesna platforma bazodanowa, która poradzi sobie z czekającą nas w najbliższym czasie eksplozją danych. Kontrola kosztów przez optymalizację Należy zaznaczyć, że w tle wszystkich wymienionych priorytetów kryje się nacisk na zyski, przez co współczesnym dyrektorom ds. informatycznych trudno jest niekiedy sprostać stawianym przed nimi wyzwaniom. Oczekuje się od nich, że przez poprawę procesów biznesowych pomogą zwiększać przychody. Jednocześnie muszą jednak utrzymać koszty niezbędnej infrastruktury i rozwiązań pod ścisłą kontrolą. Nawet jeśli sytuacja gospodarcza się poprawia, budżety działów informatycznych rosną o nie więcej niż 1–2%, przy czym nawet ta skromna podwyżka wynika Badanie IDC przeprowadzone na zlecenie firm Oracle oraz Intel wskazuje, że na pierwszym miejscu priorytetów dyrektorów IT w regionie Europy Środkowo-Wschodniej na rok 2015 znajduje się optymalizacja procesów biznesowych.
  • 7. 7 w głównej mierze z faktu, że po latach obniżek nie można już dalej ignorować pewnych potrzeb. Typową metodą na kontrolowanie kosztów było zawsze negocjowanie niższych cen z dostawcami rozwiązań IT. Z danych IDC wynika, że umowy dotyczące świadczenia usług informatycznych w Europie Środkowo-Wschodniej mają dziś krótszy okres obowiązywania i stały się bardziej ukierunkowane – dotyczą pojedynczych kwestii lub wyzwań biznesowych bądź informatycznych. Takie podejście jest jednak krótkowzroczne i zaczyna ograniczać elastyczność działów IT, ponieważ kupowanie rozwiązań na podstawie udzielanych rabatów przyczyniło się do pofragmentowania środowisk informatycznych. Co więcej, podejście to nie koncentruje się aktywnie na obszarach, które mogą pomóc w generowaniu przychodów. Jak wskazuje badanie IDC, wśród przedsiębiorstw pojawia się ostatnio bardziej perspektywiczny sposób myślenia. Aby zrobić więcej – lub wykonać nowe zadania – mniejszym kosztem, można zrestrukturyzować i zoptymalizować środowisko IT. Źródłem transformacji jest ewolucja Połączenie kontroli kosztów i konieczności zwiększania prężności działania przedsiębiorstwa przyczyniło się do zmiany sposobu myślenia wśród decydentów z działu IT. Charakteryzuje się on naciskiem na to, aby robić więcej – i wykonywać nowe zadania – mniejszym kosztem. Natychmiastowa zmiana jest jednak dla większości przedsiębiorstw z Europy Środkowo-Wschodniej trudna. Powszechnie stosowane są starsze systemy, oceniane jako „wystarczająco dobre”. Stworzone w firmie i na zamówienie aplikacje mogą być trudne do zintegrowania ze standardowymi rozwiązaniami. Większość dyrektorów ds. informatycznych stawia więc na podejście długofalowe. Z badania IDC w regionie Europy Środkowo-Wschodniej wynika, że CIO prowadzą swoje środowiska w kierunku większej optymalizacji przez m.in. następujące działania: • Upraszczanie. W Europie Środkowo- Wschodniej firmy muszą się dziś zmierzyć z prawdziwym tsunami usystematyzowanych i nieusystematyzowanych danych napływających z lokalizacji zdalnych. Liczne badania dowodzą, że same koszty pamięci masowej mogą sięgnąć nawet 10% wydatków działu IT. Aby sprostać ilości, szybkości napływania i różnorodności danych, przedsiębiorstwa stawiają na upraszczanie, które stało się ich głównym priorytetem. Jak skomentował dyrektor ds. informatycznych z jednego z polskich przedsiębiorstw energetycznych, „infrastruktura IT i liczne starsze systemy oznaczają wysokie koszty serwisowania”. Sytuacja ta często prowadzi do powstania wąskich gardeł w procesach informatycznych i biznesowych. Aby poradzić sobie z tą sytuacją, dyrektorzy ds. informatycznych zmniejszają liczbę systemów i tworzą środowiska oparte na usługach internetowych. • Konsolidacja – jako strategiczna reakcja na nadmierne rozrastanie się infrastruktury informatycznej i konieczność wymiany starszych systemów. Zwykle rozpoczyna się ona od planu zgromadzenia serwerów i pamięci masowej w jednej lokalizacji. Jej celem jest też zmniejszenie całkowitej ilości zasobów informatycznych. Ok. 86% ankietowanych przedsiębiorstw skonsolidowało już swoje centra przetwarzania danych w jednej lokalizacji. Konsolidacja tego typu może poprawić stopień wykorzystania pojemności, wyeliminować zbędną nadmiarowość oraz duplikację systemów i pamięci masowej, a także zmniejszyć zużycie energii. Kluczowym elementem konsolidacji jest wirtualizacja serwerów i pamięci masowej, ponieważ może ona pomóc usprawnić
  • 8. 8 administrowanie systemami i umożliwia korzystanie z konsoli, monitorowanie, pomiary i obciążanie opłatami. Wszystko to stwarza podstawy dla wdrażania zasobów informatycznych w chmurach prywatnych i publicznych, w których można efektywnie łączyć aplikacje (bezpośrednio lub przez warstwę pośrednią) z bazą danych i źródłami informacji napływających w czasie rzeczywistym, co pozwala przeprowadzać złożone analizy ukierunkowane na poprawę obsługi klienta. Ok. 46% dyrektorów ds. informatycznych z regionu jako najważniejszą zaletę chmury wskazało większą elastyczność, wielu wydaje się też myśleć perspektywicznie i prowadzić swoje systemy w tym kierunku. • Samoobsługa. Dyrektorzy ds. informatycznych w dużej mierze dostrzegają, że automatyzacja procesów i zapewnienie praw administracyjnych menedżerom spoza obszaru IT może znacznie zwiększyć efektywność tworzenia kont użytkowników, przyznawania uprawnień i udostępniania podstawowych narzędzi. Ponad 60% ankietowanych wdrożyło pewną formę samoobsługowego udostępniania zasobów, a 40% – katalog usług. Nowe wyzwania, nowe możliwości Ponad 80% ankietowanych dyrektorów IT przyznało, że rozwiązania informatyczne są kluczowe dla obniżania kosztów biznesowych. Wyjaśnia to, dlaczego wdrażanie i modernizację systemów ERP, CRM, HCM oraz innych aplikacji biznesowych wymienia się wśród najważniejszych priorytetów działu IT. Rozwiązania te odgrywają decydującą rolę w optymalizacji procesów biznesowych i pośrednio wpływają na obniżanie kosztów, a należy pamiętać, że oba te zagadnienia należą do najważniejszych priorytetów firm. Co więcej, 38% przedsiębiorstw w Europie Środkowo-Wschodniej inwestuje w oprogramowanie do analizy danych biznesowych i przeprowadzania innych analiz (w tym analiz big data), aby móc łatwiej wskazywać możliwości optymalizacji funkcjonowania przedsiębiorstwa i procesów. Narzędzia do analizy danych biznesowych stosowane dla systemu CRM, systemu do zarządzania procesami czy systemów finansowych, a także danych dotyczących poziomu wykorzystania infrastruktury lub szczegółowych informacji od klientów, mogą być też jednak wdrażane równolegle we wszystkich tych systemach. Istotne inwestycje wiążą się też z mobilnością – ok. jedna trzecia dyrektorów ds. informatycznych stwierdziła, że jest to w ich wydatkach jeden z najważniejszych priorytetów. Narzędzia mobilne 86% 79% 72% 58% 43% Stan transformacji przedsiębiorstw Konsolidacja Wirtualizacja Monitorowanie i mierzenie Samoobsługowe udostępnianie zasobów Samoobsługowe udostępnianie katalogu usług Źródło: IDC, 2014 – na podstawie 186 ankiet
  • 9. 9 można wykorzystać nie tylko do zapewnienia dostępu do systemów przedsiębiorstwa z odległych lokalizacji, ale także do generowania dodatkowych informacji na temat wydajności zespołów handlowych i łączności, a także wydatków na komunikację. Nadchodzi rewolucja Choć wielu dyrektorów ds. informatycznych, którzy wzięli udział w ankiecie IDC, niechętnie używa terminu „chmura”, liczby sugerują, że firmy idą w kierunku wdrażania technologii cloud computing. Coraz więcej, bo 32%, korzysta już ze środowiska chmury prywatnej lub hybrydowej, 16% używa natomiast infrastruktury chmury publicznej i/lub aplikacji udostępnianych w chmurze tego typu. Choć tylko nieco poniżej 10% ankietowanych przyznaje, że stosuje aplikacje dostępne w chmurze publicznej, oprogramowanie jako usługa (SaaS) stanie się w najbliższych latach nowym modelem podstawowym. Oprócz znacznego uproszczenia administrowania aplikacjami, platformami (w tym bazami danych) i infrastrukturą, modele oparte na chmurze umożliwiają szybkie opracowywanie i wdrażanie aplikacji biznesowych. Niezależnie od tego, czy odbywa się to wewnętrznie, czy za pośrednictwem dostawcy rozwiązań informatycznych – chmura otwiera drzwi eksperymentom, innowacjom i ściślejszej integracji oprogramowania z infrastrukturą, co może prowadzić do wypracowania trwałej przewagi nad konkurencją i znacznie zwiększyć zyski przedsiębiorstwa. Proces ten oznacza więc w ostatecznym rozrachunku uproszczenie, które pozwala wymienić mało wydajne maszyny i systemy przy jednoczesnym ograniczeniu ich liczby. Społecznościowe narzędzia biznesowe, Internet i konsumeryzacja branży informatycznej w wyniku dużego wzrostu popularności smartfonów i tabletów sprawiły, że w przedsiębiorstwach pojawił się nowy typ użytkownika, który jest przyzwyczajony do mobilności, nieustannego kontaktu ze znajomymi, rodziną i firmą oraz dostawania tego, co chce – wtedy, gdy tego potrzebuje. Wśród firm działających w segmencie B2C wywołało to Korzyści z chmury publicznej lub prywatnej Większa elastyczność Mniejsza bariera wejścia Szybkie wdrożenie Mniejsze koszty osobowe w dziale IT Niższy całkowity koszt posiadania (TCO) 0% 10% 20% 30% 40% 50% Źródło: IDC, 2014 – na podstawie 186 ankiet
  • 10. 10 olbrzymią presję na zapewnienie klientom obsługi za pośrednictwem wszystkich kanałów. Banki, sklepy detaliczne, operatorzy telekomunikacyjni, usługodawcy, przedsiębiorstwa komunalne i zakłady komunikacji miejskiej, linie lotnicze, hotele – wszystkie te firmy i instytucje muszą w czasie rzeczywistym udostępniać informacje w swoich serwisach internetowych, aplikacjach, telecentrach, kioskach, komunikatorach i za pośrednictwem swoich pracowników w oddziałach. Działanie w dowolnym punkcie musi być natychmiast rejestrowane we wszystkich pozostałych obszarach, aby zapewnić klientowi płynną obsługę również przy zmianie kanału. Tak więc kolejną rewolucyjną zmianą w działaniu przedsiębiorstw jest takie przekształcenie systemów, aby uzyskać maksymalną szybkość reagowania, która musi być zapewniona w dwóch aspektach: w przypadku transakcji (lub transmisji danych) i zdolności błyskawicznego opracowywania nowych produktów i usług. Perspektywa IDC: przychody w chmurze Przedsiębiorstwa w regionie Europy Środkowo- Wschodniej są jeszcze na początkowym etapie transformacji swoich środowisk IT. Rynek chmur publicznych i rozwiązań SaaS rośnie jednak o ok. 30% rocznie, IDC spodziewa się więc, że za trzy lub cztery lata sytuacja będzie całkiem odmienna. Dyrektorzy ds. informatycznych, którzy stawiają na model oparty przede wszystkim na chmurze i go wdrażają, pomagają swoim przedsiębiorstwom (i swoim karierom zawodowym) wyraźnie wyprzedzić konkurencję. Duże międzynarodowe przedsiębiorstwa z branży IT poświęciły lata na opracowanie gotowych produktów służących konkretnym potrzebom biznesowym. Nawet przy stosunkowo atrakcyjnych kosztach pracy w Europie Środkowo-Wschodniej wewnętrzne opracowywanie i obsługiwanie systemów może kosztować więcej niż skorzystanie z usług firmy zewnętrznej. Aplikacje zawsze będzie trzeba dostosowywać do niestandardowych potrzeb, jednak systemy HCM, SCM, CRM oraz rozwiązania podatkowe i księgowe, narzędzia do zarządzania dokumentami, bazy danych, platformy, pamięć masowa i inne rozwiązania infrastrukturalne można zwykle skonfigurować i uruchomić znacznie szybciej, gdy wszystkim tym zajmie się doświadczony dostawca zewnętrzny. średni roczny wzrost usług chmurowych w krajach CEE należących do UE wzrost rozwiązań społecznościowych na rynkach Unii Europejskiej tyle razy szybciej rosną wydatki na big data w porównaniu do wzrostu rynku IT obywateli krajów CEE posiada smartfony Źródło: IDC, 2014 CEE = kraje Europy Środkowo-Wschodniej Szybkie tempo transformacji Opracowano na podstawie IDC White Paper: Driving Business Growth and Innovation: The Next Step for CIOs in Central and Eastern Europe
  • 11. 11 Optymalizacja IT to bardzo szeroki temat, którym zajmuje się także dział Asysty Technicznej Oracle. Każdy użytkownik naszych rozwiązań, który ma aktywną usługę Oracle Premier Support, ma do dyspozycji kilka ścieżek pozwalających na optymalizowanie zarówno systemu jako całości, jak też jego poszczególnych komponentów. Dział Oracle Support stosuje w swojej pracy podejście proaktywne, co oznacza, że nie tylko reaguje na określone zgłoszenia od użytkowników, ale proponuje rozwiązania problemów, zanim jeszcze one wystąpią. W większości umów mamy ustalony taki poziom usługi, że po znalezieniu możliwości usprawnienia systemu, odpowiednie czynności są od razu wykonywane. Jednym z procesów optymalizacji które oferujemy, jest możliwość korzystania z modelu samoobsługi, dzięki której wiele zadań związanych z utrzymaniem systemów Oracle odbywa się automatycznie. Pracujące u klientów nasze instalacje, posiadają wyspecjalizowane narzędzia pakietu Oracle Configuration Manager, które analizują konfigurację systemu IT i potrafią zasugerować użytkownikom zmiany zwiększające jego poziom optymalizacji. Dodatkowo Asysta Techniczna Oracle otrzymuje zdalnie sygnał o problemie i sugeruje strojenie systemu, informując użytkownika drogą mailową o podjętych czynnościach. Może to być zmiana parametrów systemu lub instalacja odpowiednich aktualizacji, dzięki którym system będzie działał sprawniej. Oprócz stosowania aktualizacji fabrycznych, dostarczanych przez Korporację, mamy możliwość przygotowania sprofilowanej aktualizacji dla konkretnego użytkownika, z uwzględnieniem wszystkich uwarunkowań i specyficznych cech pracującego u niego systemu. Bardzo szeroko stosujemy także metodę kształcenia użytkowników do obsługi rozwiązań Oracle, wierząc że w każdej organizacji dobrze wyszkolony zespół IT potrafi najlepiej zarządzać procesami optymalizacji własnych systemów. Udostępniamy bezpłatnie setki szkoleń online, dzięki którym użytkownicy mogą na bieżąco aktualizować swoją wiedzę na temat produktów Oracle, jakie u nich są zainstalowane. Od niedawna dostępna jest także specjalna ścieżka szkoleń, należąca do grupy zwanej Akredytacją. Szkolenia tej kategorii kończą się swego rodzaju egzaminem, potwierdzającym konkretne umiejętności specjalistów działu IT klienta. Certyfikat akredytacyjny jest świadectwem, że inżynier posiada wiedzę pozwalającą najskuteczniej korzystać z narzędzi Oracle Support, dla jeszcze sprawniejszego rozwiązywania wszystkich problemów z optymalizacją systemów i jego elementów. W ramach Asysty Technicznej działa zespół Oracle Advanced Customer Support (ACS), który ma jeszcze większe możliwości optymalizowania systemów u klientów. Ponieważ ACS udostępnia użytkownikowi dedykowanych ekspertów, opiekujących się konkretną instalacją i posiadających dogłębną wiedzę na jej temat, każde działanie wykonywane jest znacznie szybciej. Ponadto w ramach swoich usług ACS może wykonać dla klienta tzw. Proof of Concept, aby sprawdzić nowe możliwości optymalizacji jego systemu IT. Dzięki temu jest możliwe przetestowanie wielu zaawansowanych możliwości optymalizowania – takich, jak wdrożenie modelu chmury prywatnej, czy wirtualizacja. Paweł Szymczak, Dyrektor Działu Oracle Support odpowiedzialny za Polskę
  • 12. 12 5 kroków budowania zespołu wg Łukasza Kruczka Jak zaangażować wszystkich członków zespołu do zwycięstwa? Na to pytanie szukają odpowiedzi zarówno menedżerowie biznesu, jak i trenerzy sportowi. Łukasz Kruczek stosuje w swojej pracy 5 kluczowych zasad zarządzania zespołem wyrastających ze Strategii Lean. Prowadzą one do wzrostu determinacji i motywacji całej drużyny, co stanowi klucz do ciągłej poprawy wyników. 1. Jeden zespół, jedna droga Łukasz Kruczek mówi: W pracy trenerskiej dążę do tego, by drużynie przyświecała myśl „jeden zespół, jedna droga” – co oznacza, że wszyscy jedziemy na tym samym wózku. Podstawą są jasno zdefiniowane cele, dzięki którym mamy przejrzyste kryteria zwycięstwa. Powtarzam zawodnikom, że każdy ma wpływ na wynik innej osoby z zespołu. Skoczkowie są dla siebie nawzajem trenerami. Wspierają się i motywują, a także w razie czego instruują. Dzięki temu mają poczucie odpowiedzialności i dążą do wspólnego sukcesu. Współpraca między zawodnikami jest przykładem dobrych praktyk, które warto przenieść na płaszczyznę biznesu. Przy wdrażaniu Strategii Lean zadaję menedżerom pytanie, jaki jest cel ich organizacji i jaka jest strategia jej rozwoju, najczęściej wskazują na cele indywidualnych departamentów – mówi Radosław Drzewiecki, prezes Leanpassion. Firmy są podzielone na szereg silosów wertykalnych, takich jak: sprzedaż, operacje, HR, finanse. Problem w tym, że nie mają one świadomości wspólnych celów. Bariera występuje nie tylko pomiędzy departamentami, ale także między kadrą menedżerską, a resztą pracowników. Dlatego warto na początek usiąść razem i niczym drużyna skoczków określić wspólne cele. 2. 100% zaangażowania to podstawa – Jeśli zawodnik jest zaangażowany na 90% to nie może osiągnąć wyniku w sporcie. Dotyczy to nie tylko skoczków, co całego zespołu – przekonuje Kruczek. – Jeśli jedna osoba odpuszcza, odbija się to na całej grupie. Wszyscy biorą odpowiedzialność za swoją pracę i muszą pamiętać, że od ich efektów zależy sukces drużyny. Zadaniem trenera jest natychmiastowa ocena po każdym oddanym skoku. W ten sposób zaangażowanie nie słabnie, a zawodnik może na bieżąco poprawiać swoje wyniki. Wg wyników badań przeprowadzonych przez Instytut Gallupa* tylko 13% pracowników odczuwa Wraz z nadejściem okresu zimowego rozpoczął się sezon wyjątkowych emocji na skoczniach narciarskich. Choć aktualnie polska reprezentacja nie święci triumfów na zawodach, trener Łukasz Kruczek nie ustaje w wysiłkach, by zawodnicy stanęli na najwyższym podium. Szkoleniowiec wie, że wynik jest efektem nie tyle dobrego startu jednego sportowca, co wytrwałej pracy całego zespołu. Dokładnie zaplanowany trening oparty na szczegółowej analizie każdego skoku, testowanie nowych technologii i poszukiwanie ciągłych usprawnień przez wszystkich członków drużyny sprzyja budowaniu zespołu. Metody zarządzania stosowane przez doświadczonego trenera to nic innego jak wykorzystywanie elementów Strategii Lean, czyli zaangażowanie wszystkich członków zespołu w budowanie przewagi konkurencyjnej. Barbara Mejssner, it-manager.pl
  • 13. 13 satysfakcję z pracy. Statystyki wskazują również, że 85% respondentów przychodzi do pracy, ponieważ nie mają innego wyjścia i po prostu muszą, a ich główną motywacją są pieniądze. Co ciekawe, badania wyraźnie pokazują korelację pomiędzy stopniem zaangażowania pracowników, a wynikami finansowymi. Średni wskaźnik EBIT w firmach charakteryzujących się wysoką satysfakcją zespołu jest trzykrotnie wyższy niż w pozostałych organizacjach. Radosław Drzewiecki mówi: Sięgając do Strategii Lean, poziom satysfakcji zespołu rośnie wówczas, gdy menedżerowie „są bezpośrednio w procesie”, rozmawiają z pracownikami i zadają pytania dotyczące jego realizacji. W ten sposób można wyeliminować charakterystyczną dla relacji menedżer–pracownik asymetrię informacji oraz różne postrzeganie celów firmy. 3. Zwycięski skok to nie zawsze dobry skok – Gdy wraz z zespołem analizujemy zwycięskie skoki, zdarza się, że choć są one dalekie, często daleko im do perfekcji. Zwycięzcy są często lepsi od konkurencji, ponieważ po prostu popełniają mniej błędów. Szczegółowa analiza skoku pozwala wychwycić szereg szczegółów, które można poprawić, a tym samym dążyć do ciągłego usprawniania pracy skoczków. Gdybyśmy oparli naszą ocenę na opiniach z zewnątrz, już dawno byśmy przestali trenować – a konkurencja tylko na to czeka. Często w praktyce biznesowej spotykamy się z sytuacją, w której menedżerowie prowadzą długie dyskusje, na temat tego, kto ma rację, a nikt nie pokusi się o zadanie pytania, jakie są fakty – mówi Drzewiecki. Na pytanie, jaka jest motywacja pracowników, najczęściej odwołujemy się do opinii a nie faktów, generalizując, że jest ona: mała, średnia lub duża. Odpowiednio zadane pytanie o to, jaki procent pracowników i kto konkretnie odczuwa brak satysfakcji, pozwala określić problem i wprowadzić działania naprawcze, które wzmocnią motywację i zaangażowanie pracowników. 4. Mistrza wyróżnia stopień determinacji – Mistrz zawsze dojdzie na szczyt. Znajdzie swoją własną ścieżkę. Wynika to z jego determinacji. Średniego gracza trzeba na ten szczyt wprowadzić – mówi Kruczek. – To co charakteryzuje mistrzów to właśnie determinacja do zwyciężania. Cierpliwość i konsekwencja w pracy towarzyszą im na co dzień.
  • 14. 14 Wokół Strategii Lean narosło szereg mitów, które sprawiają, że jej wprowadzanie może wiązać się ze sprzeciwem. Nie polega bowiem ona na zmuszaniu ludzi do cięższej pracy. Nie sprawia również, że zespół będzie pracował szybciej. Rolą menedżera jest budowanie świadomości celów, kreowanie atmosfery zaangażowania i otwartości do zgłaszania problemów – wyjaśnia Drzewiecki. Praktyka wskazuje, że najczęściej menedżer okazuje szacunek swoim pracownikom poprzez sam kontakt z procesem, współuczestnictwo i obserwowanie postępów. 5. Skok to nie tylko moment wybicia z progu – Każdy skok to proces złożony z wielu bardzo ważnych elementów, a nie tylko moment wybicia z progu – mówi na koniec Łukasz Kruczek. Dlatego jestem zwolennikiem codziennego trenowania i nieustannego szukania problemów. Zostawiamy szerokie pole do eksperymentowania i poszukiwania nowych rozwiązań, które mogą zdecydować o zwycięstwie. Nie mam tu na myśli tylko pracy skoczka, ale również spraw najprostszych – kształtu i wygody buta, stosowanej diety, układu wiązania. Wydaje się oczywiste, że doskonalenie zespołu to nieustający proces, a nie kolejny projekt, za który jest odpowiedzialny określony dział w firmie. Drzewiecki konkluduje: Powodzenie Strategii Lean jest możliwe tylko wtedy, gdy wszyscy pracownicy są zaangażowani w proces doskonalenia. Najczęstszy błąd menedżerów polega na przekonaniu, że wystarczy powołać komórkę ds. Lean, a samemu można skoncentrować się na prowadzeniu biznesu. * Instytut Gallupa (ang. The Gallup Organization) – najstarszy instytut badania opinii społecznej na świecie dostarczający różnorodnych informacji na temat opinii publicznej w kwestiach aktualnych wydarzeń.
  • 15. 15 Redukcja kosztów w IT Nie dopuść do tego, aby polityka firmy powstrzymała realizację inicjatyw mających na celu redukcję kosztów IT Konflikty pomiędzy bezpośrednimi podwładnymi CIO, bardzo często wynikające z faktu, że każdy z nich broni swojego terytorium, mogą udaremnić plany redukcji kosztów związanych z utrzymaniem i zarządzaniem funkcją IT w firmie. Bez względu na koniunkturę gospodarczą, dyrektorzy IT muszą bardzo często realizować projekty optymalizacji kosztów. Konieczność redukowania kosztów IT wynika nierzadko z ogromnej presji finansowej lub konkurencyjnej – ponieważ wyniki spółki w danym kwartale nie są najlepsze, prezes domaga się redukcji kosztów w całym przedsiębiorstwie, aby uspokoić udziałowców. Niekiedy inicjatywy mające na celu optymalizację kosztów IT podejmowane są przez CIO w ramach wprowadzanych przez nich zmian lub w celu wykazania ich bezpośredniego wpływu na organizację funkcji IT. Zdarza się również, że CIO dąży do wyeliminowania określonych wydatków w celu pozyskania środków na nową inwestycję. Identyfikacja możliwości ograniczenia kosztów w obszarze IT jest stosunkowo prostym zadaniem, czego nie można już niestety powiedzieć o samej jego realizacji. Jak przekonuje Anthony Stephan, dyrektor działu Technology Strategy & Architecture w Deloitte Consulting LLP, polityka organizacyjna, sprzeczne priorytety czy brak dedykowanych zasobów sprawiają, że realizacja wielu inicjatyw z zakresu redukcji kosztów IT jest opóźniona, zaniechana lub nie przynosi oczekiwanych rezultatów. Walka o wpływy wewnątrz organizacji może okazać się najpoważniejszym wyzwaniem stojącym przed CIO. Konieczność ograniczania kosztów przeraża nawet najbardziej trzeźwo myślących pracowników działu IT. Ich obawy związane są przede wszystkim z możliwością negatywnego wpływu projektów optymalizacyjnych na ich wizerunek liderów. Z tego też względu podejmują często działania o charakterze samozachowawczym, które mogą zniwelować najlepsze intencje CIO. Istnieje wiele sposobów przeciwdziałania oporowi oraz zachowaniom samozachowawczym pracowników. Już na samym początku CIO może przybrać łagodny ton, ogłosić, że inicjatywa ma strategiczne znaczenie dla przedsiębiorstwa, wyznaczyć jasne, mierzalne cele czy też wprowadzić system zachęt dla pracowników. Nie pokazuj jak bardzo ci zależy Stephan twierdzi, że polecenie cięcia kosztów informatycznych wydane CIO przez prezesa lub dyrektora finansowego firmy wywiera na niego ogromną presję. CIO czują bezpośrednią presję, ponieważ wyznaczane im cele są zazwyczaj niezwykle ambitne i sprzeczne z innymi projektami o charakterze doraźnym. W rezultacie, ich stres często udziela się podwładnym – zauważa Stephan. Osoby, które nie potrafią zapanować nad nerwami, potęgują jednak dodatkowo uczucie niepokoju wśród bezpośrednio podległych im pracowników, w wyniku, czego zaczynają oni kierować się instynktem samozachowawczym. Zdaniem Stephana, poczucie lęku w środowisku pracy staje się problematyczne z dwóch względów. Po pierwsze, źle wpływa na produktywność. Bezpośredni podwładni CIO tracą cenny czas aby „ratować swoją skórę” zamiast podjąć działania związane z redukcją kosztów. Po drugie, wypracowanie wspólnego podejścia oraz budowanie zaangażowania zespołu wymaga dodatkowego trudu.
  • 16. 16 Jeśli CIO rozpoczyna projekt w napiętej atmosferze, dążąc następnie do osiągnięcia określonego wyniku, konieczne jest wyeliminowanie źródła niepokoju oraz budowanie pasji i optymizmu związanego z realizacją projektu – podkreśla Stephan. Niepokój, który początkowo towarzyszy podwładnym zaangażowanym w realizację projektu, sprawia, że jest im trudniej wyrazić poparcie dla wizji dyrektora, bez względu na to, jak bardzo jest ona przekonująca. Nadaj projektom odpowiednie znaczenie Zdaniem Stephana, to, czy dana inicjatywa przyniesie spodziewane efekty, zależy przede wszystkim od zdolności przywódczych osoby zarządzającej działem IT, a w szczególności od umiejętności przedstawienia wizji projektu w przekonujący sposób. W wielu przypadkach niezbędne jest „odczarowanie” cięcia kosztów w taki sposób, aby nie było ono postrzegane wyłącznie jako bezwzględne działanie mające na celu ograniczenie zatrudnienia, ale jako strategiczna inicjatywa umożliwiająca rozwój nie tylko działu IT, ale również całej firmy. Informując pracowników o projektach mających na celu redukcję kosztów informatycznych, CIO powinni skupić się na najważniejszym celu, jakim jest zwiększanie możliwości rozwojowych oraz wspieranie innowacyjności przedsiębiorstwa. Powinni również pokazać, w jaki sposób konkretne działania, jakie mają zamiar zrealizować, uatrakcyjnią pracę działu lub zdejmą z pracowników ciężar wykonywania niektórych obowiązków towarzyszących ich codziennej pracy – tłumaczy Stephan. Rzecz jasna, zmiana negatywnego postrzegania przez pracowników inicjatyw mających na celu redukcję kosztów IT wymaga od CIO pewnej siebie postawy oraz przekazywania spójnych informacji. Nie wystarczy poinformować pracowników o planowanym projekcie optymalizacji kosztów jednorazowo, na jego początku – dodaje Stephan. Przekaz ten należy wzmacniać w całym okresie jego realizacji. Wyznacz jasne cele Baris Sarer, starszy menedżer w dziale Technology Strategy & Architecture Deloitte Consulting LLP, proponuje, aby CIO wyznaczali jasne cele w zakresie cięcia kosztów dla każdego obszaru podległej im funkcji wraz z terminami ich realizacji, a także monitorowali osiągane w tym zakresie postępy. I chociaż taka wskazówka może wydawać się trywialna, Sarer i Stephan twierdzą, że w praktyce niewielu dyrektorów IT się nią kieruje. Dyrektorzy ds. informatyki potrafią zazwyczaj przedstawić uzasadnienie biznesowe projektu redukcji kosztów. Zdarza się jednak, że nie monitorują rezultatów w trakcie jego realizacji, co stanowi jedną z największych przeszkód na drodze do sukcesu – twierdzi Sarer. Zdaniem Sarera, równie ważne jest określenie strat, na jakie dział informatyczny jest narażony na skutek odwlekania decyzji lub działań związanych z realizacją określonych inicjatyw mających na celu optymalizację kosztów. W przypadku klienta rozważającego możliwość skorzystania z usług outsourcingowych świadczonych przez podmiot zagraniczny, kwota ta wynosiła 100.000 dolarów tygodniowo. Przy takim poziomie szczegółowości w odniesieniu do potencjalnej redukcji kosztów oraz oszczędności, można z łatwością wyznaczyć cele, które pracownicy powinni osiągnąć – twierdzi Sarer. Nawet jeśli pracownicy czują się zagrożeni, mają wyznaczony wspólny cel. Bieżące monitorowanie działań podejmowanych w tym zakresie sprawia, że jest im trudniej zlekceważyć nałożone na nich obowiązki.
  • 17. 17 System zachęt: pieniądze motywują do działania Zachęty finansowe są skutecznym narzędziem, które CIO mogą zastosować, aby zapobiec ostremu sprzeciwowi oraz walkom o wpływy, skupiając jednocześnie uwagę pracowników na konieczności osiągnięcia celów z zakresu optymalizacji kosztów. Jeśli inicjatywa mająca na celu cięcie kosztów koliduje z bieżącą pracą osób pełniących funkcje kierownicze w dziale IT i nie zostanie uwzględniona w planach motywacyjnych, osoby te nie będą szczególnie zainteresowane jej realizacją – zauważa Sarer. Początkowo mogą podjąć pewne działania mające na celu ograniczenie kosztów, ale realizacja całego programu, od analizy po osiągnięcie zamierzonych korzyści, wymaga wprowadzenia odpowiedniego systemu zachęt. Ludzie są w stanie zrobić bardzo wiele, jeśli ich premia zostanie uzależniona od osiąganych wyników oraz realizacji inicjatywy o charakterze strategicznym – dodaje Stephan. Nie zachowują się już jak ofiary, ale jak zwycięzcy. Zamiast przyjmować pozycję obronną, konkurują ze sobą, aby osiągnąć jak najlepsze rezultaty. Systemy motywacyjne związane z osiąganymi wynikami potrafią zdziałać cuda. Dodatkowe informacje: „When Should You Restructure IT”, „5 Steps to IT Restructuring Success” Tłumaczenie artykułu, który ukazał się 26 sierpnia 2014 r. na stronie: http://deloitte.wsj.com/cio/
  • 18. 18 Jak mierzyć efektywność IT Stanisław Matczak Efektywność – to takie ładne słowo… Wszyscy chcieliby, żeby praca – zarówno osobista, jak i działanie całej firmy czy organizacji – była efektywna. Wysoka efektywność z reguły związana jest ze sprawnym działaniem, brakiem marnowania czasu na niepotrzebne aktywności, skupieniem się na tym co najważniejsze, dostarczaniem właściwych rezultatów czy produktów, wysoką motywacją do pracy, oraz – last but not least – dochodowością przedsiębiorstwa. To wszystko brzmi pięknie – natomiast kiedy próbujemy odpowiedzieć na pytanie, czy praca naszych działów czy zespołów wytwarzających oprogramowanie jest efektywna, to z reguły pojawia się problem. A jeszcze większy problem pojawia się w momencie, kiedy chcemy tą efektywność jakoś zmierzyć… Po co nam mierzenie efektywności? Zanim przejdziemy do samego mierzenia, dobrze jest zastanowić się przez chwilę po co jest nam potrzebna miara naszej efektywności. Jaka jest nasza motywacja do tego, aby inwestować w to mierzenie – bo tak naprawdę podwody mierzenia efektywności mogą być bardzo różne. Być może chcemy mierzyć efektywność, po to, aby pochwalić się w jakimiś ładnymi liczbami czy wskaźnikami w jakimś raporcie. W tym przypadku nie trzeba się mocno zastanawiać nad wyborem metody mierzenia – bierzemy po prostu taką metodę, która da nam najlepsze wyniki. I cieszymy się tym wynikami do czasu, aż ktoś nie zacznie drążyć, co tak naprawdę się za tymi wskaźnikami kryje… Być może mamy kilka osób czy zespołów, które pracują razem i chcemy porównać ich efektywność ze sobą – po to, aby nagrodzić najlepszych i dać sygnał „hej, powinniście się poprawić” tym gorszym. W tym przypadku musimy być szczególnie ostrożni z wyborem metody pomiaru. Informatycy (wbrew pozorom) nie są głupi i wybranie złej metody oceniania będzie miało dwie konsekwencje. Po pierwsze spowoduje efekt odwrotny do zamierzonego, czyli demotywację pracowników: „po co mam się starać w pracy, skoro jestem oceniany przez tak idiotyczne kryteria?”. A po drugie, bardzo szybko pracownicy nauczą się tak organizować swoją pracę, aby raportować wysokie wskaźniki efektywności, nawet jeżeli ich praca nie będzie efektywna… I jest jeszcze jedna motywacja – w moim odczuciu najbardziej sensowna. W wielu firmach podejmowane są różnorakie wysiłki mające na celu zwiększenie efektywności pracy. Wprowadzanie tych zmian zawsze wiąże się z jakimiś kosztami – albo są to koszty bezpośrednie, albo pośrednie, kiedy to musimy zmienić nasze przyzwyczajenia, wprowadzić jakieś nowe narzędzie, przekonać się do niego… I tak naprawdę czasami trudno jest stwierdzić, czy wprowadzenie danej zmiany przyniosło więcej kosztu czy pożytku. Ba, często różne osoby mają różne zdania na temat tej samej zmiany: „wprowadzenie wiki pomogło nam aktualizować na bieżąco naszą dokumentację” vs. „wprowadzenie wiki sprawiło, że mamy dodatkową robotę z utrzymywaniem tego narzędzia”. Dlatego też dobrze byłoby zmierzyć, czy po wprowadzeniu zmiany efektywność pracy faktycznie nam wzrosła. Czy faktycznie jest lepiej – bo może też być tak, że koszty zmiany przeważają nad zyskami z jej wprowadzenia. Problem z licznikiem równania Jeżeli mamy coś mierzyć, to najlepiej jest zacząć od określenia definicji wartości mierzonej… Proponuję wziąć najprostszą definicję efektywności, która mówi, że efektywność można określić jako stosunek uzyskanych efektów (na przykład wytworzonych produktów) do poniesionych nakładów (najczęściej włożonej pracy lub kapitału).
  • 19. 19 Im więcej wytwarzamy – tym efektywność jest większa. Im większy jest koszt wytwarzania – tym efektywność mniejsza. Banalne, nieprawdaż? Mając takie równanie, z reguły w projektach IT nie mamy większych problemów z określeniem jego mianownika. Koszt wytworzenia oprogramowania możemy bardzo łatwo zmierzyć w poniesionych wydatkach (np. koszt sprzętu) oraz w czasie pracy, który również możemy przeliczyć na pieniądze. Problem natomiast pojawia się w mierzeniu efektu pracy – jaka jest „wartość” czy „ilość” stworzonego przez nas oprogramowania. Jak ją zmierzyć? I tutaj właśnie zaczynają się schody… Próbujemy coś zmierzyć od strony klienta… Pierwszym pomysłem jest określenie wartości oprogramowania z perspektywy klienta. Czyli próba odpowiedzi na pytanie: co nowy system (albo zmiana w istniejącym systemie) daje klientowi? Na ile klient wycenia taką zmianę? I tutaj trafiamy na pierwszy problem: wartość oprogramowania dla klienta jest czasami zupełnie niewspółmierna do nakładów koniecznych do wytworzenia tego oprogramowania! Może być tak, że to, co klient zamawia, można mieć „prawie za darmo” – możemy to wykonać używając gotowego i darmowego systemu lub składając razem kilka dostępnych komponentów. Tak może być na przykład przy tworzeniu prostych serwisów internetowych – jeżeli klient chce założyć sobie bloga firmowego, to można taki serwis stworzyć w ciągu pół godziny. Ale może też być tak, że klient wymaga implementacji specyficznych funkcjonalności w specyficznej technologii (np. wymaga zmiany w systemie, który jest napisany specjalnie dla niego) i tutaj koszt zmiany jest duży. Może być też tak, że stosunkowo prosta zmiana wymaga upgrade’u lub wymiany całego systemu, z którego korzysta klient – a wtedy koszt jest ogromny… Co więcej, nawet w ramach zmian w obrębie jednego systemu, niektóre zmiany mogą być wprowadzone względnie łatwo (bo jest to np. zmiana parametryzacji), natomiast inne zmiany wymagają głębokiej przebudowy tego systemu. Czasami rodzi to sporą konfuzję po stronie klienta – skoro zmiana A kosztuje mnie 1 jednostkę czasu/pieniędzy, to dlaczego porównywalna funkcjonalnie zmiana B ma mnie kosztować 100 takich jednostek? Kod posiada linie Skoro nie udało nam się wyprowadzić jednostki wartości oprogramowania od strony klienta, to może zmieńmy punkt widzenia i spróbujmy spojrzeć na problem od strony technologicznej? Metodą pomiaru ilości pracy, która była kiedyś popularna i czasami jeszcze powraca w różnych kontekstach, jest liczenie linii kodu tworzonych przez programistę. Pomysł na pozór wydaje się bardzo kuszący – ilość linii kodu jest to metryka bardzo prosta do pomiaru, intuicyjna, zrozumiała (nawet dla menedżerów…) oraz w pewien sposób związana z dostarczanymi funkcjonalnościami. Nic, tylko wziąć i stosować. Tyle, że tak naprawdę średnio zdolny programista jest w stanie wyprodukować dowolną ilość linii kodu w ciągu dnia i, co więcej, wytworzony w ten sposób kod przy pierwszej konieczności jego zmiany, będzie nadawał się tylko i wyłącznie do wyrzucenia i napisania na nowo… Często też praca najzdolniejszych programistów polega na refaktoryzacji kodu, w wyniku czego otrzymujemy… ujemną liczbę stworzonych linii kodu. Nie rozwijając tego tematu – ocenie efektywności pracy programisty poprzez ilość napisanych linii kodu mówimy nasze stanowcze i zdecydowanie „nie”. A więcej o różnych aspektach pomiarów linii kodu można przeczytać na przykład tutaj: „It’s Not About Lines of Code”.
  • 20. 20 Takie różne pointy… Jeżeli nie linie kodu są miarą wartości oprogramowania, to co? Dawno, dawno temu, bo już w 1979 pojawiła się koncepcja obliczania punktów funkcyjnych (Function Point Analysis – FPA), czyli liczenia wartości, która ma wyrażać złożoność oraz wartość oprogramowania. Koncepcja jest ciekawa, pojawiają się w niej definicje, wzory, algorytmy i wszystko wygląda bardzo mądrze i naukowo… Tylko że, tak jak podobno ta metoda jest popularna w USA, tak w Polsce nie spotkałem się z żadnym projektem, który by tę metodę stosował. Wpadamy tutaj trochę w błędne koło: nie stosujemy punktów funkcyjnych, bo nie widzimy z tego korzyści; nie widzimy korzyści z punktów funkcyjnych, bo ich nie stosujemy. Więcej o punktach funkcyjnych można przeczytać np. w pracy Ewy Magiery. A jeżeli ktoś próbował kiedyś stosować punkty funkcyjne w jakimś praktycznym projekcie – będę wdzięczny za kontakt i podzielenie się doświadczeniami… Koncepcją z pozoru troszkę podobną do punktów funkcyjnych są story points stosowane w metodykach lekkich, np. w Scrumie. Podobieństwo polega na tym, że zarówno punkty funkcyjne, jak i story points, są to wartości bezwymiarowe, to znaczy nie mające bezpośredniego przełożenia na czas czy koszt wytworzenia oprogramowania. Ale zupełnie inna jest filozofia wyznaczania tych wartości. Za punktami funkcyjnymi stoją pomiary i wyliczenia – czyli podejście inżynierskie: „Zmierzmy w naszym systemie wejścia, wyjścia, pliki, interfejsy i inne cuda, a potem wyliczmy z tego złożoność oprogramowania używając do tego bardzo skomplikowanych wzorów”. Koncepcja wyznaczania story points wychodzi z diametralnie innego założenia i mówi tak: „Te wszystkie pomiary są bardzo pracochłonne i żmudne, a ich wynik jest nie zawsze pewny. Dlatego też dajmy sobie spokój z tym mierzeniem, zrezygnujemy z pięknych teorii, które w praktyce nie działają i bazujmy na doświadczeniu naszego zespołu, który już pewne zmiany wykonał i potrafi szacować, ile następne zmiany zajmą nam czasu”. Story points sprawdzają się bardzo dobrze w projektach prowadzonych za pomocą metodyk lekkich i pozwalają na branie do iteracji odpowiedniej ilości zadań oraz pozwalają na oszacowanie, ile iteracji pozostało nam do końca projektu. Ale nie są one wskaźnikiem, który pozwala na porównywanie między sobą zespołów, które pracują nad różnymi systemami i w różnych technologiach, ani też nie wskażą nam efektywności całej organizacji. A może nie mierzyć wcale? I w tym momencie wiele osób mówi tak: story points u nas nie zadziałają, bo nie jesteśmy Scrumowi. Nie chcemy albo nie mamy czasu na eksperymenty z punktami funkcyjnymi. Żadnych innych sensownych miar też nie udało nam się skonstruować. No to trudno, zróbmy inaczej. Zrezygnujmy z mierzenia efektywności całej organizacji – zamiast tego uwierzmy w to, że nasze subiektywne poczucie „na ile jest dobrze” jest prawdziwe. Starajmy się poprawić efektywność tam, gdzie widzimy problemy. Natomiast jeżeli chodzi o ocenę efektywności pracy poszczególnych osób – niech zajmą się tym ich bezpośredni przełożeni. Kierownik przydziela swoim pracownikom zadania, niech zatem również ocenia, czy pracownik wykonuje te zadania efektywnie. Takie podejście jest stosowane w wielu firmach – ale zauważmy, że takie rozwiązanie wymaga, aby kierownik zespołu posiadał co najmniej taki sam poziom wiedzy i umiejętności technicznych co jego podwładni. A nie zawsze tak jest – często bywa tak, że kierownik zespołu zarządza zadaniami, współpracuje z klientem, sporządza różne raporty i robi milion innych rzeczy, które sprawiają, że nie nadąża w rozwoju technicznym za swoimi
  • 21. 21 podwładnymi. Dotykamy tutaj skomplikowanej kwestii roli kierownika w zespole IT – bo bardzo często oczekuje się, że ma być to osoba, która będzie super-programistą, znawcą wszystkich niuansów systemu, wyrocznią architektoniczną, a jednocześnie będzie to osoba zapewniająca skuteczną komunikację, prezentująca wizje, pracująca nad motywacją zespołu, zapewniająca coaching pracowników, zarządzająca konfliktami, oceniająca wyniki pracy, dbająca o rozwój zespołu i robiąca masę innych rzeczy. W pewnym momencie trzeba podjąć decyzję – czy kierownik zespołu ma bardziej rozwijać się w kierunku technicznym (jest wtedy super-programistą i ocena efektywności pracy podwładnych jest dla niego o tyle prosta, że robi na co dzień to samo), czy też może ma się rozwijać bardziej w kierunku zarządzania (wtedy prowadzi zespół, ale niekonieczne może być w stanie ocenić efektywność pracy podwładnych, bo ci mogą mieć większą wiedzę techniczną od niego). I na zakończenie… Zaczęliśmy od efektywności, a skończyliśmy na oczekiwaniach co do kierownika zespołu… Znak to, że pora już kończyć ten tekst. I na koniec o jeszcze jednym sposobie mierzenia i „poprawiania” efektywności. W pewnej małej firmie normą pracy programisty była ilość spędzonych godzin przy pisaniu kodu. A żeby dopilnować postępów pracy, właściciel firmy co jakiś czas wpadał do pokoju programistów i sprawdzał, czy wszyscy mają ręce na klawiaturach i stukają w klawisze… Historia wydaje się absurdalna, ale jest, niestety, prawdziwa. A czy w Twoim zespole czy firmie stosuje się jakiś pomiar efektywności pracy? Jeżeli tak – będę wdzięczny za przesłanie informacji o nim na mojego maila (dostasia@gmail.com). Stanisław Matczak Od początku swojej kariery zawodowej pracuje przy rozwoju i utrzymaniu dużych systemów informatycznych. W przeszłości analityk, programista, projektant, project manager, lider zespołów. Obecnie kierownik zespołu odpowiedzialnego za optymalizacje systemów informatycznych w Nordea IT Polska. Założyciel i współtwórca portalu „Trzecia kawa” (www.trzeciakawa.pl), który gromadzi artykuły dotyczące różnych zagadnień  wytwarzania oprogramowania. Prywatnie zajmuje się prowadzeniem warsztatów komunikacyjnych dla małżeństw i jest fanem nocnych imprez na orientację. Artykuł pierwotnie ukazał się na blogu: http://www.trzeciakawa.pl/
  • 22. 22 Efektywne zarządzanie informacją to największy kapitał w biznesie Europejscy managerowie w międzynarodowym badaniu firmy Canon na temat znaczenia informacji Rafał Jakubowski Wyszkolona produktywność Jak wynika z raportu przygotowanego na zlecenie Canon, pracownicy w przedsiębiorstwach – bez względu na wielkość organizacji, sektor gospodarki oraz jej lokalizację geograficzną – w coraz większym stopniu czują się przytłoczeni ilością informacji, z którą mają do czynienia podczas wykonywania codziennych obowiązków. To niestety przekłada się na procesy biznesowe, które stają się coraz mniej efektywne. Badanie wykazało, że istnieją trzy podstawowe czynniki wpływające na produktywność: sformalizowane szkolenia, standardowe procesy oraz centralne systemy pamięci masowych. Spośród tych trzech, kluczową rolę odgrywają szkolenia – w szczególności dotyczące tego, w jaki sposób optymalnie wykorzystywać technologie biznesowe, a także jak przechowywać i współdzielić informacje. Mają one największe znaczenie dla pracowników na niższych szczeblach hierarchii organizacyjnej. Nieco mniejszą wagę przypisują im właściciele firm i przedstawiciele zarządów. Ich zdaniem, dla zwiększania produktywności równie ważne co szkolenia (39%) są protokoły przechowywania i współdzielenia informacji oraz ich realizacja w praktyce (37%). Pracownicy, którzy swoje obowiązki wykonują zdalnie większą rolę przypisują standardowym sposobom przechowywania informacji i zarządzania nimi. Biorąc to pod uwagę, wydaje się, że ta sytuacja to doskonała okazja dla CIO na przejęcie sterów w organizacji w obszarze systemów zarządzania informacją. Z wniosków zawartych w raporcie ICM dla firmy Canon wynika, że zwiększenie produktywności można zrealizować w trzech stosunkowo prostych krokach: Przedsiębiorstwa na całym świecie stoją przed wyzwaniem codziennego przetwarzania rosnącej ilości informacji. Jednak niektóre firmy radzą sobie w tej sytuacji lepiej niż inne, osiągając korzyści dla organizacji. Zarządzają one informacjami w taki sposób, że wzrasta produktywność, a biznes lepiej odpowiada na potrzeby klientów. Kluczowe znaczenie mają dla osiągnięcia tego celu sformalizowane szkolenia pracowników z wykorzystania technologii biznesowych oraz standaryzacja procesów i praktyk – m.in. takie wnioski płyną z badania przeprowadzonego przez brytyjski instytut ICM na zlecenie firmy Canon na grupie 3800 managerów w całej Europie. Celem projektu było zidentyfikowanie czynników kształtujących produktywność, poznanie relacji pomiędzy zarządzaniem informacjami a wynikami finansowymi firmy oraz znaczenia standardowych procesów i praktyk biurowych dla efektywności, a także odkrycie tego, co ogranicza zwrot z inwestycji w rozwiązania IT. Analiza danych pozwoliła na wyodrębnienie czterech kluczowych zagadnień.
  • 23. 23 • wprowadzając lub rozbudowując sformalizowane programy szkoleń pracowników, • działając na rzecz standaryzacji procesów, • wdrażając scentralizowane systemy pamięci masowych. Informacja to pieniądz Relacja łącząca informacje z zyskownością to kluczowy element wpływający na efektywność organizacji. Pracownicy na wszystkich szczeblach powinni mieć świadomość, że wszelkie podejmowane przez nich działania, w których centrum znajduje się informacja, mają kluczowe znaczenie dla zwiększania zyskowności przedsiębiorstwa. Badanie ICM na zlecenie Canon pokazuje, że im niższy szczebel organizacyjnej hierarchii, tym mniejsze zrozumienie związku, jaki zachodzi pomiędzy informacjami a zyskiem. Jednocześnie, stosunkowo niska świadomość tej relacji charakteryzuje pracowników wykonujących swoje obowiązki zdalnie oraz pracowników sektora edukacyjnego i ochrony zdrowia. Z badań wynika, że tylko nieco ponad połowa pracowników na niższych stanowiskach rozumie wpływ informacji na zyski. To oznacza, że przedsiębiorstwa mają jeszcze spore możliwości do zwiększania swoich zysków, pod warunkiem, że zapewnią swoim pracownikom szkolenia koncentrujące się wokół kwestii informacji oraz danych posiadanych przez organizację. Co ciekawe, pracownicy, którzy zostali przeszkoleni w zakresie technologii biznesowych oraz zarządzania informacjami o wiele częściej zdają sobie sprawę z relacji pomiędzy informacjami a zyskami niż osoby, które nie uczestniczyły w szkoleniach. Jednocześnie, im szkoleń było więcej tym były bardziej treściwe. Priorytety: większa produktywność 27% procesy/ protokoły 52% szkolenia pracowników systemy pamięci masowych 22% Źródło: Badanie instytutu ICM na zlecenie firmy Canon Badanie Badanie wykonała brytyjska firma ICM na zlecenie firmy Canon. W ramach projektu przeprowadzono 3,8 tys. wywiadów w 24 krajach Europy, Azji oraz Afryki (w tym 200 wywiadów w Czechach, na Słowacji i Węgrzech oraz w Polsce). Większość badanych to pracownicy biurowi na niższych i średnich szczeblach hierarchii organizacyjnej w małych i średnich firmach (tylko 24% badanych to firmy zatrudniające powyżej 5 tys. pracowników) zajmujący się obsługą klienta, sprzedażą i marketingiem, finansami i księgowością, zasobami ludzkimi, kwestiami administracyjnymi oraz innymi.
  • 24. 24 Maksymalny ROI Tylko nieco ponad połowa ankietowanych wie, jak wykorzystać w pełni technologie biznesowe. Co więcej, blisko połowa uważa, że odpowiedzialność za nauczenie się korzystania z technologii biurowych spoczywa na użytkownikach końcowych i pracownikach. Podobna liczba bazuje na szkoleniach technologicznych organizowanych przez zewnętrzne podmioty. Jedna osoba na trzy przyznaje, że nie została formalnie przeszkolona w zakresie przechowywania i zarządzania informacjami. Dotyczy to w szczególności mniejszych organizacji oraz pracowników, którzy większość obowiązków wykonują poza biurem. 36% pracowników zdalnych twierdzi, że nie uczestniczy w szkoleniach, ponieważ nie pracuje na co dzień w biurze. Największe zaniedbania, a zarazem największy potencjał mają szkolenia koncentrujące się wokół oprogramowania i procedur związanych z bezpieczeństwem. Ponad połowa ankietowanych nie została objęta szkoleniami w tym obszarze. Brak sformalizowanych szkoleń może często oznaczać, że technologia nie jest w pełni zoptymalizowana. To jednocześnie okazja do lepszego zarządzania procesami i implementacji standardów postępowania mających na celu zwiększenie efektywności. Źródło: Badanie instytutu ICM na zlecenie firmy Canon 64% 70% 71% 72% 73% Rozumie, w jaki sposób wytwarzane lub przetwarzane informacje wpływają na zyskowność organizacji (57% ankietowanych na niższych stanowiskach nie-kierowniczych) Zrozumienie relacji w grupie osób, które zostały przeszkolone w zakresie: znaczenia informacji i danych dla organizacji obsługi systemów zarządzania dokumentami/ polityki przechowywania dokumentów obsługi oprogramowania z zakresu bezpieczeństwa/ polityki zapisywania plików procedur przechowywania/ współdzielenia informacji
  • 25. 25 Biurowe standardy Standardy praktyk biurowych mają fundamentalne znaczenie dla zwiększania produktywności przy wykorzystaniu technologii biznesowych. Brak konsekwencji w tym obszarze oznacza mniejszą produktywność działania. Według danych zaprezentowanych przez firmę Canon zdecydowana większość organizacji przechowuje informacje na centralnych serwerach. Niestety jednocześnie ponad 40% pracowników przechowuje informacje na pojedynczych urządzeniach. Dotyczy to w szczególności małych firm. Ponad połowa badanych nie uważa, że systemy pamięci masowych w ich organizacji są dobrze zorganizowane i efektywne. Oceniają, że straty czasowe z tym związane wahają się od 25 do 30 minut dziennie. Kluczowe problemy to brak standardowych formatów papierowych i niestandardowe sposoby zapisywania. 40% uważa, że standardowe sposoby zapisywani plików ułatwiłyby współdzielenie informacji. Ponad połowa firm nie ma standardów w obszarze nazywania plików, przechowywania maili i udostępniania dokumentów do przeszukiwania. Choć duże firmy posiadają centralne serwery czy chmury, to pracownicy są w mniejszym stopniu świadomi standardów w obszarze nazywania i zapisywania plików. 7 na 10 ankietowanych odpowiada, że doświadczyło problemów podczas poszukiwania starszych dokumentów. Standardowe procesy mają szczególne znaczenie w przypadku pracowników zdalnych. Dwie trzecie firm posiada takich właśnie pracowników. Większość z nich przyznaje, że zdalny dostęp jest wystarczający, ale brak procesów efektywnego zarządzania współdzieleniem informacji prowadzi do utraty informacji i przeładowania systemów pocztowych. Charakterystyka regionalna i organizacyjna W krajach Europy Północnej, Zachodniej i Środkowej przedsiębiorstwa posiadają technologie do przechowywania i współdzielenia informacji, ale ich słabością są nieefektywne systemy zarządzania informacją. W Rosji, w Afryce i na Bliskim Wschodzie mniejsza liczba organizacji wykorzystuje scentralizowane systemy pamięci masowych, a brak standardowych praktyk wpływa negatywnie na produktywność. Małe firmy są stosunkowo dobrze wyposażone w technologie biznesowe, ale brakuje w nich formalnych szkoleń dla pracowników. Kluczowe znaczenie dla optymalizacji współdzielenia informacji mają w tej grupie działania zmierzające do rozwoju systemów pamięci masowych. W dużych przedsiębiorstwach istnieją formalne szkolenia i technologie pozwalające przechowywać informacje w centralnym systemie. Największe wyzwania dotyczą działań mających na celu większą standaryzację pracy, która przełoży się na wzrost efektywności.
  • 26. 26 Standaryzacja przepływu informacji oraz edukacja pracowników w zakresie wykorzystania technologii biznesowych stanowią kluczowe czynniki wpływające na efektywność przedsiębiorstw w 2015 roku. To główny wniosek badań opracowanych przez niezależny ośrodek badawczy ICM na zlecenie firmy Canon. Dostrzegając zmiany w sposobie zarządzania, Canon podkreśla konieczność wsparcia menedżerów w ich dążeniu do wypracowania nowej definicji efektywności opartej na standaryzacji procesów, łatwym dostępie do danych oraz innowacyjnych technologiach. Po pierwsze: optymalizacja Pracownicy najniższego szczebla hierarchii organizacyjnej podkreślają potrzebę edukacji w obszarze optymalnego wykorzystania technologii biznesowych w firmie. 1/3 badanych przyznaje, że nie została formalnie przeszkolona w zakresie przechowywania informacji i zarządzania nimi. To wyraźny sygnał dla CIO, którzy powinni traktować rozwój umiejętności szeregowych pracowników w zakresie obiegu dokumentów, jako jeden z kluczowych elementów poprawy efektywności funkcjonowania poszczególnych oddziałów i całej firmy. Anna Krupińska, Dyrektor Marketingu BIG w Canon Polska Według danych zaprezentowanych przez firmę Canon 78% organizacji ma centralne serwery do przechowywania informacji przechowuje informacje na indywidualnych urządzeniach 41%pracowników minut tyle czasu średnio każdego dnia jest tracone na poszukiwanie historycznych dokumentów czytaj dalej
  • 27. 27 Mając świadomość potrzeb przedsiębiorstw, Canon od lat rozwija i wdraża technologie wspierające konsolidację infrastruktury druku i automatyzację procesu obiegu dokumentów. Wpływają one na podniesienie efektywności i zyskowności procesów, m.in. poprzez oszczędność materiałów czy czasu pracy. W związku z tym dyrektorzy ds. IT w bezpośredniej współpracy np. z dyrektorem finansowym powinni wziąć większą odpowiedzialność za proces integracji obszaru technologicznego i biznesowego firmy w oparciu o najnowsze narzędzia informatyczne. Przyczyni się to do lepszego zrozumienia wymagań klienta zarówno przez top menedżerów, jak i pracowników szczebla podstawowego. Po drugie: dostępność Popularność modelu BYOD (Bring Your Own Device) sprawiła, że rolą CIO w nowoczesnych przedsiębiorstwie nie jest już „stanie na straży” informacji. Odpowiadają oni za tworzenie pracownikom warunków do możliwie łatwego dostępu do danych, zwłaszcza jeśli wykonują obowiązki poza biurem. Według raportu Canon, aż 2/3 ankietowanych firm zatrudnia personel działający w terenie. Model współpracy oparty na integracji aplikacji i narzędzi biznesowych umożliwiających dostępność danych off-line wymaga jednak zapewnienia szczególnego bezpieczeństwa. Dlatego przy wyborze dostawcy tego typu usług, dyrektorzy IT powinni wziąć pod uwagę z jednej strony niezawodność i innowacyjność proponowanych rozwiązań, z drugiej zaś doświadczenie i ekspercką wiedzę dostawcy. Canon, jako partner biznesowy największych światowych organizacji posiada ogromne doświadczenie we współpracy przy najbardziej złożonych projektach i doskonale łączy najwyższą jakość technologiczną z praktyką. Po trzecie: standaryzacja O ile ogromna większość przebadanych podmiotów posiada centralne serwery lub korzysta z rozwiązań chmurowych, o tyle aż 40% ankietowanych przechowuje informacje na pojedynczych urządzeniach. Bez wspomnianej już optymalizacji technologicznej opartej na jasnych standardach np. dla obiegu dokumentów, może to generować poważne problemy z archiwizacją, wyszukiwaniem czy współdzieleniem firmowych danych. Z przedstawionymi powyżej wyzwaniami muszą zmierzyć się praktycznie wszystkie organizacje działające w erze cyfrowej transformacji. Praktyka wskazuje, że zastosowaniu innowacyjnych technologii powinna towarzyszyć przejrzysta wizja zmian, której wprowadzenie stanowi obecnie nadrzędny cel każdego nowoczesnego dyrektora odpowiedzialnego za procesy cyfrowe. Jak możemy wspierać Twój sukces? W Canon rozumiemy wyzwania związane z zarządzaniem dokumentacją i informacjami, dlatego od lat wspieramy firmy w optymalizacji procesów poprzez wdrożenie rozwiązań umożliwiających: konsolidację infrastruktury druku i zarządzanie nią, automatyzację procesu obiegu dokumentów, przechowywanie dokumentów, druk i dystrybucję. Wierzymy bowiem, że wykorzystując potencjał technologii można zmieniać organizacje i zwiększać ich efektywność. Więcej inspiracji znajdą Państwo na blogu Canon BUSINESS BYTES. Wojciech Wyszyński Sales&Business Development Manager Canon Business Services Canon Polska Tel. + 48 22 500 21 44 e-mail: Wojciech.wyszynski@canon.pl Zachęcamy do kontaktu z naszym przedstawicielem oraz śledzenia naszych kanałów społecznościowych:
  • 28. 28 Przewaga dzięki specjalizacji Badania na temat wykorzystania systemów APS do wsparcia procesu planowania produkcji Piotr Rojek, DSR Sp z o.o. Klasyczny system ERP pozwala jedynie na podstawowe harmonogramowanie produkcji nawet w średnio skomplikowanych procesach wytwórczych. Częstym obejściem stosowanym przez planistów, aby „wycisnąć” jak najwięcej z ERP, jest ograniczenie harmonogramowania tylko do wybranych poziomów w strukturze złożenia produktu (Bill Of Material1 ). Korzyści systemu specjalizowanego APS są zauważalne praktycznie „od ręki”, ponieważ pozwalają wyeliminować koszty związane z „ręcznym” układaniem planów i przestojami. Zwiększają elastyczność planowania produkcji dając możliwość realizacji zleceń specjalnych. Wpływają również na lepszą obsługę klientów zapewniając szczegółową informację dla odbiorców. Umożliwiają także pełne dostosowanie pracy personelu do faktycznych potrzeb. 1 Bill of Material – zapis drzewiastej struktury produktu – od drobnych elementów na najniższym poziomie, poprzez półprodukty które na końcu „schodzą” się w produkt gotowy. Główne wnioski wynikające z badania Spółka DSR, czołowy dostawca rozwiązań informatycznych dla firm produkcyjnych, przeprowadziła badania wśród firm z sektora wytwórczego dotyczące korzyści wynikających z krótkoterminowego planowania produkcji. Analizie poddano również narzędzia informatyczne stosowane do wsparcia tego procesu. Wyniki diagnozy pokazują standardy planowania produkcji w polskich przedsiębiorstwach, a także wskazują na potrzeby spółek produkcyjnych w tym obszarze. • Kluczową korzyścią, której spodziewają się użytkownicy tworzący plany produkcji w oparciu o narzędzia IT jest zachowanie odpowiedniej terminowości. Przyznało tak ¾ respondentów. • Dla 46% respondentów minimalizacja kosztów jest szczególnie istotnym czynnikiem wynikającym z wprowadzenia rozwiązań do krótkoterminowego planowania produkcji. • Rośnie wykorzystanie zaawansowanych aplikacji do harmonogramowania produkcji klasy APS, które posiada 13% ankietowanych firm. • Systemy ERP wspierają jedynie główne planowanie produkcji (63%) oraz tradycyjne planowanie potrzeb materiałowych (60%). Powszechne zastosowanie systemów wspomagających zarządzanie klasy ERP spowodowało, że firmy zbudowały podstawy sprawnego środowiska wymiany informacji w przedsiębiorstwie. W tym momencie pada pytanie o faktyczną optymalizację kluczowych procesów organizacyjnych w kontekście budowania przewagi nad konkurencją. W sytuacji, gdy wszystkie firmy dysponują podobnymi rozwiązaniami o większej skuteczności procesów decydują specjalizowane aplikacje dziedzinowe. Pokazują to przykłady firm produkcyjnych, które budują skuteczne środowisko wsparcia biznesu oparte na aplikacjach wspomagających kluczowe obszary, takie jak planowanie produkcji.
  • 29. 29 Planowanie na kilka etatów Według opinii 38% przedstawicieli firm uczestniczących w badaniach, w proces tworzenia krótkookresowego planu produkcji jest zaangażowanych 4-5 lub więcej osób. Niemal połowa respondentów przyznała, że do tego zadania zatrudnia 2-3 osoby. Menedżerowie odpowiedzialni za planowanie produkcji muszą sprostać licznym wyzwaniom wynikającym ze złożoności tego procesu oraz silnej presji finansowej, organizacyjnej i rynkowej. Kluczowa okazuje się szybka reakcja na wszelkie zmiany: popytu, podaży, dostępności surowców i parku maszynowego. Badania wyraźnie pokazują, że w cały proces zaangażowanych jest wiele osób, co z jednej strony podkreśla znaczenie tego obszaru, z drugiej zaś wskazuje na braki związane z automatyzacją samego planowania. „W terminie i po niskich kosztach” Zdaniem ankietowanych zdecydowanie najważniejszą spodziewaną korzyścią płynącą z wykorzystania rozwiązań IT do operacyjnego planowania produkcji jest zapewnienie terminowości dostaw. Potwierdziło to aż 75% ankietowanych. Wiąże się ona pośrednio z kwestią skrócenia cyklu produkcyjnego, która jest bardzo istotna (+2) dla 38% badanych i istotna (+1) dla 40%. Dla zapewnienia wysokiej terminowości znaczenie ma również minimalizacja czasów przezbrojeń – dla 42% pytanych jest to cel istotny (+1). Niezwykle ważne są także kwestie związane z oszczędnościami. Minimalizacja kosztów produkcji (dla 46% ankietowanych jest celem najważniejszym) i maksymalizacja wykorzystania zasobów (44% oznaczyło to pytanie symbolem +2). 1 osoba 15% 2-3 osoby 49% 4-5 osób 17% powyżej 5 osób 19% Minimalizacja kosztów produkcji -2 4% -1 0% 0 23% +1 27% +2 46% Maksymalizacja wykorzystania zasobów -2 0% -1 0% 0 23% +1 33% +2 44% Terminowość -2 0% -1 0% 0 8% +1 17% +2 75% Minimalizacja czasu produkcji -2 0% -1 0% 0 23% +1 40% +2 38% Minimalizacja czasów przezbrojeń -2 0% -1 8% 0 21% +1 42% +2 29% -2 – najmniej ważne +2 – najbardziej ważne
  • 30. 30 Firmy są zmuszone do planowania zleceń produkcyjnych w środowisku swoich prawdziwych, ograniczonych zasobów, a co za tym idzie informować klientów o realnym terminie wykonania. Często przedsiębiorstwa przechodzą z planowania tygodniowego na harmonogramowanie dzienne, godzinowe, a czasami jeszcze dokładniejsze. Niezmiennie, muszą optymalizować przebiegi w celu obniżenia kosztów. Używane do tego celu oprogramowanie najczęściej nie jest w stanie odwzorować realnych ograniczeń występujących w procesie produkcji. Celem, na który firmy zwracają najmniejszą uwagę jest minimalizacja wielkości partii/serii produkcji. Dla 61% respondentów nie ma on większego znaczenia, natomiast aż 19% uznało go za zupełnie nieistotny. Minimalizacja stanów magazynowych i minimalizacja pracy w toku, to według odpowiednio 18% i 19% cele mało lub bardzo mało znaczące. Gdzie ERP nie może, tam APS dotrze Badanie koncentrowało się również na analizie narzędzi wykorzystywanych do wspierania procesu tworzenia okresowego planu produkcji w przedsiębiorstwie. Okazuje się, że aż 77% ankietowanych korzysta z rozwiązań klasy ERP/ MRPII. Co ciekawe podobna liczba (71%) nadal wspomaga się arkuszami kalkulacyjnymi. Może to wskazywać na korzystanie z danych zgromadzonych w systemach ERP, aby później realizować zadania planistyczne z użyciem tych danych w Excelu. 19% korzysta z systemu realizacji produkcji MES, a 5% pracuje na własnych aplikacjach dedykowanych. 13% przedsiębiorstw wykorzystuje narzędzia dedykowane do zaawansowanego harmonogramowania produkcji, czyli systemy APS. – O ile rynek systemów ERP możemy uznać w Polsce za dojrzały oraz nasycony, o tyle rynek systemów APS (Advanced Production Scheduling) wychodzi Rozwiązania IT wykorzystywane w przedsiębiorstwie MRPII/ERP (planowanie zasobówprzedsiębiorstwa) Arkusze kalkulacyjne MS EXCEL MES (system realizacji produkcji) APS (zaawansowane planowanie iharmonogramowanie) Własne aplikacje dedykowane EDI (elektroniczna wymiana danych) BI (Business Intelligence) SFC (system sterowania produkcją) DRP (planowanie zasobów dystrybucyjnych) Inne 10% 10% 6% 19% 13% 71% 77% 2% 2% 2% 0% 10% 20% 30% 40% 50% 60% 70% 80% 90%
  • 31. 31 dopiero z początkowego stadium rozwoju. Badania wskazują, że część firm produkcyjnych podjęła już decyzję o wprowadzeniu zaawansowanych narzędzi planistycznych traktując je jako kluczowy element budowania przewagi nad konkurencją. 13% firm biorących udział w ankiecie jest w swoistej awangardzie firm produkcyjnych, czerpiąc szereg korzyści, takich jak lepsza reakcja na zmiany, przyspieszenie procesu planowania, czy lepsze wykorzystanie zespołu – podkreśla Paweł Koprowski, Dyrektor Sprzedaży DSR. Systemy ERP wykorzystywane są jedynie do głównego planowania produkcji (63%) i tradycyjnego planowania potrzeb materiałowych (60%). Jeżeli chodzi o najczęstsze metody dystrybucji okresowych planów produkcji to cały czas wykorzystywane są najprostsze formy takie jak arkusze kalkulacyjne (65%) i papierowe przewodniki produkcyjne (42%). Moduły systemów klasy MRP/ERP funkcjonują w 29% przedsiębiorstw. Trochę inaczej sytuacja prezentuje się w przypadku zbierania danych dotyczących realizacji krótkoterminowego planu produkcji, gdzie najwięcej firm wykorzystuje systemy MRP/ ERP (54%). Z arkuszy kalkulacyjnych korzysta 46%, a z przewodników produkcyjnych 35%. – Badania potwierdzają, że firmy wciąż stosują uniwersalne narzędzia wspomagające układanie harmonogramów, takie jak arkusze kalkulacyjne. Problem w tym, że nie uwzględniają one kontroli materiałowej lub stosują uproszczone rozwiązania. Złożoność procesu harmonogramowania już w średnio skomplikowanych procesach produkcyjnych zmusza planistów do ograniczenia harmonogramowania tylko do wybranych poziomów w strukturze złożenia produktu (Bill Of Material) – narzędzia o ograniczonych możliwościach nie pozwalają na śledzenie zależności pomiędzy poziomami złożenia produktu – dodaje Paweł Koprowski. Podsumowanie Dla firm wytwórczych w procesie planowania operacyjnego najważniejsza jest terminowość i optymalizacja kosztów. Mniej istotna jest minimalizacja stanów magazynowych i pracy w toku, a za najmniej ważny cel zostały uznane kwestie z związane z minimalizacją wielkości partii/serii. Elementy planowania produkcji wspierane przez system ERP Główne planowanie produkcji Planowanie potrzeb materiałowych Zagregowane planowanie produkcji Brak Szeregowanie i harmonogramowanie Bilansowanie zdolności produkcyjnych 60% 63% 21% 19% 17% 25% 0% 10% 20% 30% 40% 50% 60% 70%
  • 32. 32 O DSR Powstała w 2005 roku spółka DSR Sp z o.o. (Dynamika Synergia Rezultat) jest dostawcą rozwiązań informatycznych wspierających organizację i zarządzanie przedsiębiorstwem w obszarze produkcji i logistyki. DSR proponuje firmom wytwórczym szeroki zakres usług: od konsultingu biznesowego, poprzez wdrożenia ERP aż do sterowania operacyjnego wspieranego przez: APS, Automatyczna Identyfikacja – kody kresowe i systemy MES. Klienci DSR to zarówno duże korporacje jak i firmy lokalne. Wyróżnikiem DSR jest konsekwentna identyfikacja procesów Klienta, w których inwestycja w IT przyniesie najlepsze efekty (ROI). Piotr Rojek Jest prezesem zarządu DSR. Odpowiada za kształtowanie strategii rozwoju spółki, współpracę z partnerami technologicznymi, koordynację obszaru R&D oraz doradztwo w zakresie poprawy efektywności firm produkcyjnych. Zarządza procesem tworzenia nowych rozwiązań informatycznych. Karierę zawodową rozpoczynał w firmie QAD, gdzie odpowiadał za obsługę kluczowych klientów firmy. Realizował projekty informatyczne i doradcze m.in. dla takich firm, jak 3M, AB, JTT Computers, TIM SA, Zetkama. Jest absolwentem Politechniki Wrocławskiej. Odebrał również dyplom MBA Helsinki School Of Economics i Wyższej Szkoły Bankowej w Poznaniu. – Zauważalnym trendem w dziedzinie zaawansowanego planowania produkcji jest nacisk na czas dostaw – mówi Paweł Koprowski. To czynnik wpływający na konkurencyjność producentów. Zawsze bardzo ważny – szczególnie dla rynku polskiego określanego jako „wrażliwy cenowo” – jest aspekt kosztowy. Firmom zależy na utrzymaniu niskiego kosztu wytworzenia, co sprawia, że ich towary są cenowo konkurencyjne. Tu oczywiście nic się nie zmieniło – presja cenowa jest cały czas mocna, jeśli nie mocniejsza niż kiedyś. Przedsiębiorstwa do opracowania planów wykorzystują narzędzia MRP/ERP i arkusze kalkulacyjne MS EXCEL. Te drugie są głównym narzędziem wykorzystywanym do dystrybucji okresowych planów produkcji. Obserwujemy tendencję wielu firm do poszukiwania nowych, skuteczniejszych narzędzi planowania i harmonogramowania produkcji. Dostawcy ERP zarówno globalni jak i lokalni, oferują rozwiązania jedynie wspomagające harmonogramowanie. Są to proste produkty nie mające cech systemów APS, jedynie pomagające planistom poprzez proste metody harmonogramowania, wizualizację obciążenia zasobów, itd. Ich zastosowanie co prawda pomaga w utrzymaniu spójności danych (w przeciwieństwie do rozwiązań opartych na arkuszach kalkulacyjnych), jednak nie wprowadza jakościowej zmiany w systemie harmonogramowania. Ankieta jest dostępna na stronie: http://www.dsr.com.pl/aktualnosci/wypelnij-ankiete-odbierz-nagrode
  • 33. 33 1 Optymalizacja IT Idee na czas zmiany Przeczytaj pierwszą edycję raportu
  • 34. 34 Outsourcing: prościej, bezpieczniej, taniej Wspomniana optymalizacja dotyczy m.in. przechowywania i przetwarzania danych. Zapewnienie bezpieczeństwa i ciągłości dostępu do danych nie jest kwestią wyboru, a czysto biznesową kalkulacją. Prostym sposobem jest relokacja zasobów teleinformatycznych przedsiębiorstwa do zewnętrznego centrum danych, a więc outsourcing. Jednak aby przeprowadzić ten proces z sukcesem, należy się do takiej zmiany odpowiednio przygotować. Outsourcing tak, ale kiedy i jak? O outsourcingu firmy powinny myśleć cały czas, choć decyzja o powierzeniu zasobów podmiotowi zewnętrznemu może być poprzedzona różnymi innymi decyzjami czy warunkami. Jednym z nich może być efekt skali. W większej organizacji wymagania związane z własną infrastrukturą sieciową i serwerową rosną w szybszym tempie. Z kolei mniejsze przedsiębiorstwa nie chcą mnożyć kosztów, utrzymywać sztabu specjalistów i chętnie korzystają z outsourcingu. Dynamiczny rozwój firmy oznacza często konieczność rozszerzenia kadry, w tym zespołu IT. Im bogatsze portfolio świadczonych usług i więcej obsługiwanych klientów, tym silniejsza potrzeba stabilnego i bezpiecznego przechowywania danych, szybkiego dostępu do sieci, ale też usprawnienia wszystkich procesów z tym związanych. To z kolei rodzi potrzebę skorzystania z usług specjalistów, którzy skutecznie zapanują nad wszystkimi działaniami nawet wtedy, gdy firma powierzy swoje zasoby IT zewnętrznemu partnerowi. Przeczy to powszechnej opinii, że outsourcing wiąże się z redukcją etatów w firmie. W przypadku firm średniej wielkości potrzeba zatrudnienia managera, który będzie nadzorował pracę zespołu specjalistów IT, delegował zadania, wyznaczał cele i kontrolował ich realizację – nie wykonując przy tym pracy operacyjnej – może być sygnałem do rozpoczęcia poszukiwań partnera do zarządzania zasobami IT firmy. Bywa, że sugestia bądź rekomendacja powierzenia firmowej infrastruktury IT zewnętrznemu dostawcy wychodzi od osoby lub działu zajmującego się finansami. Należy bowiem pamiętać, że infrastruktura sieciowa to żywy organizm. W sensie dosłownym, bo należy zatrudnić kompetentnych specjalistów, którzy będą sprawować pieczę na całością, Dynamiczny wzrost ilości danych generowanych w ostatnich latach wymusza na firmach i instytucjach poszukiwanie nowych, tańszych rozwiązań IT i alternatywnych modeli działalności biznesowej. Dotyczy to przedstawicieli praktycznie wszystkich sektorów rynkowych. Rozwiązania dedykowane działom IT, które sprawdzały się jeszcze kilka lat temu, dzisiaj stają się dla przedsiębiorstw ciężarem zwiększającym koszty. Postępująca transformacja rynku IT, której jesteśmy świadkami sprawia, że zarówno małe przedsiębiorstwa, jak i duzi gracze stanęli przed wyzwaniem tworzenia nowych strategii. Strategii, dzięki którym możliwa będzie przede wszystkim optymalizacja procesów operacyjnych, a w dalszej perspektywie także redukcja kosztów. Robert Paszkiewicz, ATM S.A.
  • 35. 35 ale też w sensie technicznym. Sprzęt bywa zawodny, ulega awariom, starzeje się – to oznacza kolejne inwestycje. W przypadku średnich i dużych firm jest tylko kwestią czasu, aż kadra odpowiedzialna za płynność i stabilność finansową zwróci uwagę na generujący coraz większe koszty dział IT. Plan działania Po podjęciu decyzji o outsourcingu zasobów należy określić potrzeby przedsiębiorstwa. Chodzi tu o sprecyzowanie celów biznesowych i – przede wszystkim – wymagań wobec dostawcy, takich jak: zakres współpracy i świadczonych usług, czas realizacji czy jasne określenie obszarów odpowiedzialności. Ponadto warto zadbać o niezbędne szkolenia dla kadry IT, aby przyszła współpraca była płynna i bezproblemowa. Najczęściej takie szkolenia, już od pierwszego etapu projektu, zapewnia partner, który będzie świadczył usługę kolokacji lub hostingu. Przygotowując plan należy także określić obszar największego ryzyka. W przypadku przenoszenia zasobów do centrów kolokacyjnych dostawcy, będą to oczywiście dane firmy. Zarówno te o charakterze wewnętrznym, a więc dotyczące działalności samego przedsiębiorstwa, jak i zewnętrzne – dane klientów, akcjonariuszy czy partnerów. Bardzo ważnym elementem jest także włączenie w cały proces pracowników, którzy potem będą odpowiedzialni za kontakt z firmą świadczącą usługę outsourcingu. Mowa tu o wszystkich etapach projektu – od fazy początkowej po fizyczne przeniesienie zasobów. Tak samo istotne jest jasne określenie osób odpowiedzialnych za projekt po stronie partnera outsourcingowego, w tym ich zakresu obowiązków. W biznesie, gdzie w grę wchodzi bezpieczeństwo poufnych i wrażliwych danych, wzajemne zaufanie powinno być priorytetem. Kierunek: centra danych Związany z potrzebą optymalizacji procesów biznesowych, outsourcing usług do centrów danych spowodowany jest kilkoma dodatkowymi czynnikami. Z pewnością jest to postępująca digitalizacja zarówno biznesu, jak i sektora publicznego, rozwój i standaryzacja technologii LTE, rozwój modelu e-commerce, wzrost liczby urządzeń mobilnych i ilości przesyłanych danych oraz rosnące zapotrzebowanie na transmisje wideo w jakości HD/UHD, rozwój gier i mediów społecznościowych. Coraz większy wpływ na popyt na usługi w centrach danych mają też rozwiązania chmurowe. Z terminami: kolokacja, hosting czy cloud computing polski rynek zdążył się już oswoić. Nie wywołują już one takich emocji i wątpliwości, jak jeszcze kilka lat temu. Firmy zrozumiały, że zarządzanie rosnącymi w ekspresowym tempie wolumenami danych jest często ponad ich możliwości organizacyjne i infrastrukturalne. Dość powiedzieć, że do 2020 roku ilość wygenerowanych przez ludzkość danych wyniesie 40 bilionów gigabajtów. To aż dziesięciokrotnie więcej niż dziś. Coraz bardziej istotna staje się ochrona tych wszystkich informacji przed dostępem przez niepowołane osoby. Budować czy wynajmować? Alternatywą dla przeniesienia swoich zasobów do wybranego centrum danych jest oczywiście stworzenie własnej serwerowni i powierzenie zarządzania nią wykwalifikowanemu personelowi IT. Jednak wybudowanie serwerowni średniej wielkości, która spełni wszystkie standardy bezpieczeństwa, to koszt kilkudziesięciu milionów złotych. Do tej kwoty należy jeszcze dodać przyszłe wydatki związane z utrzymaniem obiektu. Nie wszyscy są w stanie sprostać tak wysokiemu progowi inwestycyjnemu.
  • 36. 36 To z kolei przekłada się na dynamiczny wzrost zainteresowania usługami kolokacji i hostingu. W tym modelu firma zewnętrzna świadczy usługę na określonych w kontrakcie warunkach i w zamian za wynegocjowaną stawkę oferuje parametry usługi regulowane przez SLA (Service Level Agreement). Daje tym samym gwarancję jakości i ułatwia kontrolę wydatków ponoszonych na funkcjonowanie środowiska IT. Na niej spoczywa także utrzymanie zasobów, ale i wsparcie rozwoju biznesu klienta poprzez gotowość do zaspokojenia jego zmieniających się potrzeb. U elastycznego dostawcy klient w miarę swojego rozwoju nie musi rozbudowywać własnej infrastruktury, ale na życzenie otrzymuje do swojej dyspozycji odpowiednią ilość nowych zasobów. Ponadto korzystanie z takich produktów, jak serwery dedykowane w zewnętrznych centrach danych, pozwala też na elastyczność w doborze konfiguracji sprzętowej i swobodę ewentualnej rezygnacji z usługi w dowolnym momencie. Jeśli wynająć, to od kogo? Przed podjęciem decyzji o tym, komu powierzymy nasze zasoby, warto dobrze przyjrzeć się ofercie rynkowej i sprawdzić, które obiekty są nowoczesne i utrzymują najwyższe standardy. Powód jest prosty. Centra danych są różne, a o bezpieczeństwie decydują często detale. Warto więc sprawdzić referencje dostawców i wybierać tych wypróbowanych i posiadających odpowiednie doświadczenie. Czego więc oczekiwać? Poza przytoczoną wcześniej optymalizacją kosztów, kluczowe dla każdej firmy jest bezpieczeństwo danych oddawanych „pod opiekę” zewnętrznego dostawcy. Warto więc sprawdzić, czy centrum danych jest wyposażone m.in. w redundantną klimatyzację oraz niezależne tory zasilania miejskiego i wewnętrznego z podtrzymaniem UPS i dodatkowym agregatem prądotwórczym. Równie ważna jest łączność telekomunikacyjna w obiekcie, w tym niezawodny dostęp do Internetu, umożliwiający szybki i stabilny transfer danych. Atutem dostawcy jest też dysponowanie powierzchnią kolokacyjną w różnych lokalizacjach, co jest niezbędne do świadczenia usługi typu DRC (DisasterRecovery Center). Dzięki temu usługodawca może zapewnić klientowi nieprzerwany dostęp do danych nie tylko na poziomie pojedynczych systemów, ale i całego obiektu. Ponadto należy sprawdzić mechanizmy, które zapewniają właściwy poziom kontroli dostępu do danych i informacji oraz dostępu fizycznego do kluczowych elementów infrastruktury teleinformatycznej. Powinna to być nie tylko ochrona i system kontroli dostępu, w tym monitoring CCTV, ale też utrzymanie systemu gaszenia oraz opieki operatorskiej i serwisowej. Poziom bezpieczeństwa dodatkowo podnoszą: możliwość wymiany w krótkim czasie podzespołów lub uszkodzonego serwera, ochrona sieci (w tym rozwiązania firewall) i system anty-DDoS, a także backup danych i zabezpieczenie dostępu do paneli
  • 37. 37 administracyjnych za pomocą certyfikatu SSL, który szyfruje i chroni przed przechwyceniem poufne dane przesyłane pomiędzy serwerem a użytkownikiem. Firma dokonująca wyboru zewnętrznego centrum danych powinna dowiedzieć się także, czy jego lokalizacja jest właściwa ze względu na polskie i unijne prawo w zakresie ochrony danych osobowych. Jednocześnie warto zawrzeć z dostawcą usług centrów danych umowę typu SLA (Service Level Agreement), która pozwala zdefiniować m.in. zakresy odpowiedzialności po stronie dostawcy i użytkownika oraz podnosić poziom jakości i bezpieczeństwa usług w oparciu o najlepsze praktyki. Robert Paszkiewicz Od blisko 10 lat związany z branżą IT, w firmach technologicznych zdobywał różnorodne doświadczenie na styku biznesu i techniki, specjalizując się w zarządzaniu produktami hostingowymi, rozwiązaniami w obszarze bezpieczeństwa i usługami w centrach danych. Obecnie, jako Dyrektor Marketingu w firmie ATM S.A., oferującej usługi telekomunikacyjne pod markami ATMAN i Thinx Poland, tworzy strategię marketingową i produktową spółki. Wcześniej pracował m.in. w home.pl S.A., prowadząc działania promocyjne firmy jako Marketing Manager, a jako Kierownik Produktu „Bezpieczeństwo” odpowiadał za wdrożenia nowych rozwiązań zwiększających bezpieczeństwo stron www i chroniących komputery klientów. Prywatnie pasjonat górskich wycieczek i miłośnik fotografii.
  • 38. 38 Optymalizacja, oszczędności i transformacja w obszarze danych Urszula Jaworska Cały ten cyfrowy zgiełk Współczesny biznes często boryka się z szumem informacyjnym. Chaosem wynikającym z napływających danych. Ich ilość, źródła i formaty są tak wielorakie, że rodzi to zupełnie nowe problemy operacyjne. Niespodziewanie powstają także nowe szanse dla modernizacji biznesu. Cyfrowy wszechświat, obejmujący ogół danych wytworzonych przez ludzkość, podwaja się co dwa lata. Pomiędzy rokiem 2013 a 2020 wzrośnie dziesięciokrotnie – od 4,4 bilionów gigabajtów do 44 bilionów gigabajtów1 . Dwie trzecie danych jest generowane lub rejestrowane przez konsumentów lub pracowników, ale odpowiedzialność za 85 proc. światowych danych ponoszą przedsiębiorstwa. Według IDC liczba urządzeń lub przedmiotów, które można połączyć z Internetem, zbliża się obecnie do 200 mld, a 7 proc. z nich (14 mld) jest już podłączonych do Internetu i komunikuje się. IDC przewiduje, że do 2020 r. liczba podłączonych do sieci urządzeń wzrośnie do 32 miliardów i będzie wytwarzać 10 proc. światowych danych2 . Zmiana ilości doprowadziła do zmiany jakości. Zmiana skali spowodowała zmianę statusu. Taki rozwój wypadków przewidywał Bob Metcalfe. Prawo Metcalfe’a mówi, że użyteczność sieci zwiększa się proporcjonalnie do kwadratu ilości węzłów podłączonych do niej. Dane, informacje, wiedza Przetwarzamy dane ponieważ niosą użyteczne dla biznesu informacje. Informacje zinterpretowane w kontekście posiadanej wiedzy, przez doświadczonego managera mogą przynieść 1 badanie Digital Universe firmy EMC 2 według IDC biznesowi nową wiedzę. Skoro 2/3 danych generują nasi klienci i pracownicy, to wiedza ta może mieć wartość biznesową. Przetwarzamy duże zbiory danych także dlatego, że już można. Legendarny naukowiec–przedsiębiorca, Oren Etzioni, zajmujący się rozkręcaniem biznesów operujących ogromnymi ilościami danych, zwraca uwagę, że kilka lat temu przetwarzanie big data byłoby niemożliwe. Przetwarzanie i gromadzenie danych było zbyt drogie. Ponieważ koszty operowania danymi spadły, możliwe jest także operowanie na danych, które przestały już być użyteczne. Przydatność danych nie kończy się już z chwilą osiągnięcia celu, dla którego są gromadzone… Duże, zmienne, różnorodne i niestrukturyzowane zbiory danych powodują, że ich przetwarzanie i analiza jest bardziej złożona, ale jednocześnie wartościowa. Lapidarnie ujmuje to slogan: „śmieci na wejściu, wartość na wyjściu” (ang. garbage in, value out). Big data – jak zacząć Klasycznym sposobem wyłuskiwania informacji i wiedzy z baz danych są w przedsiębiorstwach hurtownie danych (ang. data warehouse (mining)). Krzysztof Sobieszek podczas spotkania Warsaw Hadoop User Group stwierdził, że big data zaczyna się kiedy „złamie się” łopata do data miningu. Kiedy ilość (ang. volume), zmienność (ang. velocity) i różnorodność (ang. variety) są na tyle duże, że klasyczne podejście ukazuje swoją słabość. Typowy nietrywialny projekt hurtowni danych trwa co najmniej 1 rok3 . Wymaga zdefiniowania celów biznesowych i modelu biznesowego pod kątem hurtowni danych, przeniesieniu modelu biznesowego na poziom modelu danych, opracowaniu strategii budowy hurtowni, 3 ocena eksperta Sean’a Kelly
  • 39. 39 założeniu centralnego repozytorium metadanych, wyborze „tematu” dla pierwszej hurtowni danych, identyfikacji potrzeb informacyjnych możliwych do zaspokojenia z poszczególnych źródeł oraz zdefiniowaniu danych wejściowych do hurtowni wraz z algorytmami kontroli ich jakości. Trudno takie „narzędzie” zmodyfikować, by nie wspomnieć o podstawowej trudności – jak przetwarzać dane, których znaczenie i model biznesowego wykorzystania mamy dopiero odkryć... W klasycznym podejściu (ang. business intelligence) analizuje się przeszłość w kontekście znanego modelu biznesowego i jego potrzeb informacyjnych. Tworzone raporty, przekroje danych, wizualizacje mogą dostarczyć wartościowych informacji o kondycji przedsiębiorstwa. Jeśli zależy nam na optymalizacji i utrzymaniu biznesu już istniejącego, badaniu obecnych klientów jest to podejście wystarczające. Jeśli biznesowi zależy na poszukiwaniu nowych dróg rozwoju, analizie klientów potencjalnych, poszukiwaniu nowych transformacji można dokonać właśnie wprowadzając podejście big data. Wszystko zaczyna się więc od odpowiedzi na pytanie – na czym zależy biznesowi? Data Science w Polsce Podejście big data bliższe jest rozwiązywaniu dochodzeniom Sherlocka Holmes’a. Wymaga także odpowiednich predyspozycji. W metodzie tej analityk (ang. data scientist) wykorzystując wielorakie zbiory danych, różnych formatów, różniące się strukturą, korzystając przy tym z różnych narzędzi dedukuje jakie zachodzą pomiędzy nimi związki i jakie biznesowe konsekwencje z tego wynikają. W metodzie tej liczy się szczególnie umiejętność tworzenia nowych pytań, poszukiwanie odpowiedzi (raczej niż raportowanie), prognozowanie, interakcja z danymi. Wyróżnikiem jest również to, że big data często dotyczy danych napływających na bieżąco (ang. real-time) a nie tylko danych przeszłych. Z drugiej strony ogromna ilość danych badanych powoduje, że niekoniecznie trzeba skupiać się na dokładnym wyniku. Często przybliżony wynik mówi wystarczająco dużo o ile analiza nie wykaże, że wyjątki mają znaczenie i mówią o czymś zupełnie innym, albo zwracają uwagę na szczegół dotychczas niezauważany. Wbrew pozorom big data wymaga solidnego przygotowania i wiedzy, bo często korelacja pomiędzy danymi nie oznacza związku przyczynowo – skutkowego (ang. correlation is not causation). Przykładowo prawdziwa jest taka oto korelacja, że Szwajcarzy spożywają najwięcej czekolady i mają także najwięcej noblistów. Nie wynika z tego jednak, że jeśli zwiększymy spożycie czekolady mamy większą szansę na Nobla.
  • 40. 40 Istnieją także nieoczywiste, zaskakujące związki wynikania. Brytyjski tygodnik The Economist ustalił mianowicie, że porównanie cen Big Maca w różnych krajach do jego ceny w USA pozwala na ustalenie, czy waluty danych krajów są przewartościowane czy niedowartościowane. The Economist wprowadził Wskaźnik Big Maca w 1986 r. i od tamtego czasu raz do roku publikuje jego obliczenia. W Polsce możliwość wymiany doświadczeń w obszarze big data oferują spotykające się regularnie grupy skupiające entuzjastów big data, np.: Data Science Warsaw, Warsaw R User Group Meeteup, Warsaw Hadoop User Group czy Warsaw Cassandra User. Jak mówi chińskie przysłowie podróż tysiąca kroków zaczyna się od postawienia pierwszego. Urszula Jaworska Analityk biznesowy i data scientist. Z wykształcenia fizyk cząstek elementarnych, zawodowo związana z branżą usług IT. Drogę zaczynała jako Kierownik Projektów (m. in. projekt STAREO dla ING Bank Śląski – pierwsze w Polsce masowe wdrożenie nowego standardu placówek detalicznych banku), obecnie zajmuje się analizą biznesową i zagadnieniami big data. Brała udział w projektach wdrożeniowych w bankowości (PKO BP, Nordea), sektorze publicznym (PKP PLK S.A., PKP Centrala, ZUS), konsultingowych – metodyki zarządzania projektami (kolejnictwo, gazownictwo), Data Governance (ZUS). Zainteresowania: „poszukiwanie diamentów” w dużych zbiorach danych; wędrówki górskie.
  • 42. 42 Najważniejsze są relacje Stanisław Bochnak, Robert Jesionek: W jaki sposób się dzisiaj oszczędza? Jakie możliwości ma do dyspozycji CIO? Krzysztof Jarosz: Oszczędzać można zasadniczo na dwa sposoby. W pierwszej kolejności poszukujemy maksymalnie prostych rozwiązań, natomiast innym sposobem jest spojrzenie na całość procesów i jego kosztów oraz możliwych oszczędności, nie tylko w obszarze wsparcia informatycznego tego procesu. Jest kilka sposobów na oszczędzanie, np.: w zakresie umów suportowych, liczby osób zaangażowanych w realizację procesów, czy automatyzacji procesów. Możemy również przeprowadzić inwentaryzację oprogramowania i szukać oszczędności w tym obszarze, albo w przypadku umowy suportowej, zamiast kupować u producenta, można zrobić zakupy u partnera, gdzie nie tracąc na jakości, uzyskamy efekt ekonomiczny. Te oszczędności po prostu trzeba zrealizować. Prawdziwe oszczędzanie, prawdziwa praca zaczyna się później. Niezbędne w oszczędzaniu są zmiany strukturalne. Czy tego chcemy czy nie, informatyka jest obszarem wspierającym. Wyjątkami są bankowość, czy handel elektroniczny, gdzie IT jest siłą napędową biznesu, bez której nic nie można zrobić. Znajduje to odzwierciedlenie w hierarchii organizacyjnej: w tych branżach są członkowie zarządu odpowiedzialni tylko i wyłącznie za IT. Procesowy model oszczędzania, który rozpoczyna się od spojrzenia na sposoby wspierania biznesu, pozwala na optymalizację w skali całej organizacji. Weźmy za przykład procesy księgowe, w które są zaangażowane nie tylko osoby z księgowości, nie tylko sam system, ale także osoby składające zamówienia, potwierdzające wykonanie usług, czy przyjmujący towar do magazynów itd. Dzięki wykorzystaniu w konkretny sposób technologii możemy oszczędzić koszty całego procesu. To nie są koszty stricte IT, bo czasem trzeba najpierw zainwestować w automatyzację procesu, żeby całość informacji była lepsza, bardziej wiarygodna. Obniża to istotnie koszt procesu. Oszczędności w firmie to nie tylko temat IT czego nie chcą zrozumieć niektórzy CFO, ja akurat mam szczęście. No właśnie, czy pomysły na oszczędzanie powinny wychodzić od IT czy od biznesu? Osobiście chyba nigdy nie wyszedłem z takim pomysłem. Nigdy nie rzuciłem hasła: oszczędzajmy! Raczej proponowałem poszukiwanie optymalizacji procesów, usprawnianie przepływu informacji. Dokładnie tak to wyglądało, kiedy ostatnio prowadziliśmy w firmie dyskusje dotyczące wdrożenia platformy zakupowej. Inne znaczenie ten projekt miał dla działu zakupów, inne dla mnie. Kiedy przyszedłem do organizacji proces zaopatrzeniowy nie miał odzwierciedlenia systemowego, nie było wystarczających informacji. Pewne trudności w tym obszarze są zrozumiałe, ale powinny mieć charakter wyjątków, a nie stanowić standard. Próba przekonania biznesu do rozpoczęcia projektu polega na pokazaniu, co takie rozwiązanie może dać firmie, np.: czy przynosi controllingowi, Czasem, kiedy IT wychodzi z pomysłem optymalizacji, to często kończy się na niczym. Biznes źle się z tym czuje. Pojawiają się nawet zarzuty, że IT jest ogonem i ten ogon chce kręcić psem. Dlatego prawdziwą sztuką jest zainspirowanie biznesu, żeby zgłosił pomysł wymyślony przez IT. Raz to się udaje, a innym razem nie – mówi Krzysztof Jarosz, CIO w firmie PLL LOT, zdobywca tytułu Diament CIO „Strażnik transformacji” w konkursie CIO Roku 2014 w rozmowie ze Stanisławem Bochnakiem (Deloitte) oraz Robertem Jesionkiem (it-manager.pl).