Przedsiębiorcy oraz menedżerowie w zdecydowanej większości starają się podejmować decyzje, zwłaszcza te strategiczne, w oparciu o różnego rodzaju dane. Nie umniejszając przy tym roli intuicji objawiającej się w niektórych kluczowych momentach – to jednak wnioskowanie na podstawie konkretnych faktów dostarcza istotną przewagę z perspektywy efektywności wykonywanych działań. Fakty są obiektywne i niezmienne, poddają się rzetelnej weryfikacji i pozwalają na chłodną ocenę rzeczywistości oraz ograniczenie udziału emocji w kluczowych decyzjach.

Ten trend doprowadził nas do istotnych, niekiedy nieoczywistych wyzwań, dodatkowo pogłębionych w dobie rewolucji informatycznej. Informacje otaczają nas dzisiaj ze wszystkich stron, są coraz łatwiej dostępne, coraz tańsze, coraz liczniejsze – a jednocześnie – tak samo lub nawet bardziej chaotyczne. Zdolności statystyczne niezbędne do uporządkowania danych, odróżnienia sygnałów od szumu i wydobycia z nich wiedzy, stają się z każdą dekadą cenniejsze. Jednak oprócz podłoża statystycznego, potrzebujemy również narzędzi umożliwiających wizualizację, drążenie i komunikowanie danych w sposób prosty i intuicyjny, tak aby ich analiza stała się czynnością powszechną, dostępną dla przedstawicieli biznesu, co pozwoli podejmować trafniejsze decyzje w sposób bardziej efektywny, niż dotychczas.

Trendy analityczne

Coraz większą popularnością cieszą się dziś narzędzia analityczne kategorii Samoobsługowy BI (self-service BI), czyli rozwiązania pozwalające na decentralizację odpowiedzialności analitycznej i scedowanie dostępu do danych dla osób bezpośrednio odpowiedzialnych za odpowiednie obszary biznesowe, a zatem nie ograniczanie jej do wąskiej grupy analityków i specjalistów IT. Kierunek ten wymaga dostarczenia takich narzędzi i metod, które pozwolą osobom nietechnicznym samodzielnie formułować pytania i wydobywać na nie odpowiedzi. Niekiedy wymagać to może sprawnej przebudowy dostarczonych analiz, aby poddać je weryfikacji w przekroju innym, niż dotychczas. Dla umożliwienia takiej pracy reprezentantom biznesu wykorzystywane są obecnie intuicyjne i elastyczne komponenty wizualne w połączeniu z wysoce wydajnymi technologiami analitycznymi operującymi w pamięci operacyjnej (in-memory analytics).

Drugim postępującym trendem analitycznym jest Odkrywanie danych (data discovery), czyli iteracyjny proces wyszukiwania wzorców i odchyleń w danych – proces identyfikacji trendów oraz innych sygnałów, wybijających się ze statystycznego tła. Tego typu analiza była praktycznie niemożliwa (a przynajmniej wysoce nieefektywna) z wykorzystaniem funkcjonujących dotychczas powszechnie zestawień w formie tabel, czy nawet tabel przestawnych. Próba wydobycia wiedzy na podstawie tabel (czy innych zbiorów liczb) to praktyka obrazowo nazwana przez dr. Donalda Wheelera – analizą przez osmozę: w takim scenariuszu dla zrozumienia danych, odbiorca musi wchłonąć wszystkie informacje i wygenerować na ich podstawie wnioski. Tego rodzaju analiza ma to ograniczenie, że różne osoby patrząc na ten sam arkusz pozbawionych kontekstu liczb, wychwycą zupełnie inne jego elementy, pomijając przy tym znaczenie całości. Przykładowo: ktoś być może zauważy, że sprzedaż działu X w lutym spadła względem stycznia, ktoś inny jednak zwróci uwagę, że sprzedaż w lutym wzrosła rok do roku, zaś trzecia osoba podsumuje, że rzeczywista sprzedaż nie odbiega wcale od założonego planu. Będą to trzy, w pewnym stopniu uprawnione obserwacje, dalekie od kompleksowej oceny sytuacji. Większość ludzi nie ma zdolności przetworzenia w jednym momencie więcej niż kilku liczb (czy też innych faktów) – ewolucja nigdy nas do tego nie przygotowała. Na szczęście zupełnie inaczej radzimy sobie z przetwarzaniem obrazów. Dopiero wykorzystanie interaktywnych, wielowymiarowych komponentów wizualizacji powiązanych ze spójnym modelem analitycznym umożliwia efektywne odkrywanie anomalii, trendów i niemal nieograniczone drążenie danych.

Aby umożliwić przedstawicielom biznesu (czyli często osobom nietechnicznym) samodzielne drążenie i modyfikowanie analiz, kluczowe jest oparcie ich na wspólnym dla całej organizacji modelu danych o kontrolowanej jakości, co do którego zweryfikowane zostały: kompletność informacji, brak redundancji, oraz znaczenie wszystkich dostarczonych faktów. Tylko takie rozwiązania pozwalają na wyeliminowanie drążącego wiele organizacji problemu Różnych Prawd – czyli zjawiska, w którym poszczególne zespoły i osoby opracowują osobne raporty, często w różnych technologiach i według różnych standardów. Takie praktyki, bardzo często prowadziły do tej pory do powstawania konfliktów oraz rozbieżnych opinii na temat rzeczywistości w jakiej znalazło się przedsiębiorstwo. Dopiero wprowadzenie jednolitego modelu analitycznego pozwala zaadresować ten problem.

Decyzje: co dalej?

Zmiany postępujące w obszarze analizy danych mają bezpośrednie przełożenie na dwa kluczowe elementy zarządcze, istotne z perspektywy niemal każdego przedsiębiorstwa.

  1. W inny sposób podejmujemy dzisiaj decyzje strategiczne o znaczeniu długoterminowym. Takie kierunki coraz częściej obierane są na podstawie kompleksowej, wielowymiarowej oceny sytuacji, bazującej na spójnym modelu (możliwie minimalizując przy tym wpływ decyzji intuicyjnych oraz efektu Różnych Prawd).
  2. Jednak nie mniej ważne są zmiany, jakie zachodzą w obszarze decyzji operacyjnych; decyzji podejmowanych w większości firm niemal każdego dnia, czasem w sposób całkiem rutynowy w wielu częściach organizacji. Niekiedy nie zdajemy sobie nawet sprawy, że te mikrodecyzje stanowią nieodłączną część wielu naszych procesów i jako takie, zasługują na stałe optymalizacje. W przypadkach operacyjnych – w ekstremalnych sytuacjach okazać się może, że koszty związane ze wstrzymywaniem procesu w oczekiwaniu na podjęcie decyzji są wyższe, niż koszt ewentualnej błędnie podjętej decyzji. Tego zjawiska zapewne nigdy nie uda się wyeliminować całkowicie; zawsze będą się przecież zdarzać wybory pozbawione żadnego znaczenia. Jednak w pozostałych przypadkach, usprawnienie procesów decyzyjnych na poziomie operacyjnym przełożyć się może bezpośrednio na wzrost efektywności procesów.

Zdawać się może, że właśnie te przedsiębiorstwa, które dostrzegają znaczenie zagadnienia związanego z analizą danych oraz szukają sposobów i narzędzi, aby ten powszechny, iteracyjny proces przyspieszyć, usprawnić i uczynić możliwie bezbłędnym – to te, które będą zdobywały przewagę konkurencyjną w zbliżających się dekadach.

Autor

Dyrektor Działu Produkcji Systemów ERP w Asseco Business Solutions S.A.