Big data w usługach finansowych

1. Idea Big Data

Pozyskiwanie i analiza danych stanowią o efektywnym funkcjonowaniu współczesnych instytucji finansowych i stanowi zarazem największe wyzwanie bez względu na ich profil, czy wielkość. Instytucje finansowe opierające swój biznes na zarządzaniu ryzykiem starają się znaleźć pragmatyczne podejście do gromadzenia danych i wykorzystywania informacji o swoich klientach i usługach oraz uwarunkowaniach rynkowych.

W przeszłości, kiedy oferowano wąską gamę usług finansowych w stacjonarnych kanałach dystrybucji, proces zarządzania danymi nie był większym wyzwaniem dla większości organizacji. Jednak w miarę postępującej globalizacji rynków finansowych oraz wzrostu skomplikowania usług finansowych w coraz bardziej niestabilnym otoczeniu rynkowym, dla uzyskania przewagi konkurencyjnej instytucje finansowe wykorzystują coraz bardziej złożone modele wyceny ryzyka i analizy atrakcyjności usług. W modelach tych podstawowe znaczenie zaczyna odgrywać aktualność, istotność i kompletność danych.

Dodatkowo, w wyniku wzrostu znaczenia elektronicznych źródeł informacji proces pozyskiwania i analizy danych jest coraz bardziej skomplikowany. Niektóre dane są uporządkowane i przechowywane w tradycyjnej relacyjnej bazie danych, podczas gdy inne dane, w tym dokumenty, rekordy obsługi klienta, czy obrazy i pliki multimedialne, są niestrukturyzowane i mocno rozproszone. Instytucje finansowe muszą także rozważyć nowe źródła danych takie jak media społecznościowe, czy dane generowane w interakcjach klienta z witryną internetową. Ponadto, dostępność i zastosowanie nowszych, potężniejszych urządzeń mobilnych, w połączeniu z wszechobecnym dostępem do globalnych sieci internetowej, przyczynia się do tworzenia nowych źródeł danych opartych o model komunikacji pomiędzy urządzeniami (tj. Internet of Things). Przykładowo, w bankach taki model komunikacji znalazł zastosowanie do identyfikowania w czasie rzeczywistym działań oszukańczych w elektronicznych instrumentach płatniczych.  

Chociaż każde źródło danych może być niezależnie zarządzane i przeanalizowane, obecnym wyzwaniem dla instytucji finansowych jest przede wszystkich zintegrowanie różnych wymiarów pozyskiwania danych dla otrzymania wartościowych informacje dla kwantyfikacji ryzyka i innych działań biznesowych. W sytuacji, gdy instytucje finansowe mają do czynienia z rosnącą ilością danych, w wielu różnych formach i wysoką zmiennością on-line, nie można poprzestać na zarządzaniu danymi w tradycyjny sposób, lecz należy rozwijać kompetencje w ramach koncepcji określanej jako Big Data.

Big Data nie są pojedynczą technologią, ale połączeniem starych i nowych technologii w ramach nowej koncepcji zarządzania danymi, która wspiera instytucje finansowe dla w rozwoju wiedzy korporacyjnych o potencjale klientów, usług i działaniach rynkowych dla zwiększania dochodowości i ograniczania strat z tytułu ryzyka. Dlatego wyróżnikiem Big Data jest zdolność do zarządzania ogromną ilością zróżnicowanych danych z odpowiednią szybkością i w odpowiednim czasie, aby umożliwić analizę i reakcję instytucji w czasie rzeczywistym. Wyróżnikami Big Data, które stanowią swoiste wektory użyteczności Big Data we współczesnym świecie finansów jest akronim 4V na który składają się:

  • Volume tj. wielkość zasobów danych
  • Velocity, tj. szybkość przetwarzania danych
  • Variety, tj. różnorodność typów danych
  • Veracity, tj. rzetelność danych

Należy zauważyć, że powyższe cechy Big Data stanowią spójną całość. Pomijanie jednego z powyższych V prowadzi do podważenia realnych efektów całej koncepcji Big Data, a więc jej wartości (tj. Value). Na przykład, można zarządzać stosunkowo niewielką ilością bardzo różnorodnych, złożonych danych lub można przetwarzać olbrzymią ilość bardzo prostych danych. Te proste dane mogą być wszystkie ustrukturyzowane lub niestrukturyzowane, więc pomijanie aspektu rzetelności danych obniża ich wartość w tworzeniu realnej wartości biznesowej.

Dlatego też kluczowe znaczenie w Big Data jest integracja optymalna integracja wszystkich jej wektorów. Instytucje finansowa może chcieć analizować ogromne ilości danych w czasie rzeczywistym, aby szybko ocenić wartość profilu danego klienta i możliwość zaoferowania mu dodatkowych usług. Konieczne jest określenie odpowiedniej ilości i rodzajów danych, które mogą być analizowane, aby osiągnąć zamierzone wyniki biznesowe.

2. Dane strukturyzowane i niestrukturyzowane

Dla efektywnego wykorzystania Big Data musi zawierać kompletne dane, tj. dane strukturyzowane jak i nieustrukturyzowane z wielu źródeł wewnętrznych i zewnętrznych – m.in. poczta elektroniczna, serwisy społecznościowe, strumienie tekstowe i pliki multimedialne.

Określenie "dane strukturalne" odnosi się ogólnie do danych mających określoną długość i format. Przykłady danych strukturalnych obejmują liczby, daty i grupy słów i cyfr nazywanych ciągami znaków (na przykład imię i nazwisko klienta, adres itp.). Szacuje się, że rodzaju dane stanowią około 20 procent danych w danej bazie i można nimi zarządzać poprzez standardowe narzędzia jak strukturalny język zapytań (SQL) używany do zarządzania bazami danych, w tym do umieszczania i pobierania danych z baz danych. Instytucje finansowe zarządzają danymi strukturyzowanymi z "tradycyjnych" źródeł, tj. z systemów zarządzania relacjami z klientami (CRM) lub systemów kwantyfikacji ryzyka jak analiza wartości zagrożonej (VaR).

W rzeczywistości dane strukturalne nabierają nowej roli w świecie Big Data. Ewolucja technologii Big Data dostarcza nowych źródeł, które są generowane w czasie rzeczywistym i to w dużych ilościach.  Źródła danych strukturyzowanych dzieli się na dwie kategorie:

  • Generowane komputerowo lub automatycznie - dane utworzone bez interwencji człowieka. Takie dane mogą być wynikiem wykorzystania przykładowo znaczników radiowych (RFID), inteligentnych liczników, urządzeń medycznych, czy danych GPS. W instytucjach finansowych dane te są m.in. wynikiem analizy logów w systemach informatycznych lub w oparciu serwery i aplikacje internetowe, które przechwytują wszystkie dane o aktywności użytkowników do obsługi umów na poziomie usługi lub do przewidywania naruszeń zabezpieczeń.
  • Generowane przez ludzi -  dane wprowadzane ręcznie do systemu. Przykłady strukturalnych danych generowanych przez człowieka mogą obejmować najpopularniejsze dane wejściowe, czyli dowolny fragment danych, które człowiek może wprowadzić do komputera, na przykład nazwisko, wiek, dochód, itd. Te dane mogą być przydatne do zrozumienia podstawowych zachowań klientów. Innym rodzajem są strumienie danych generowanych przez klienta korzysta z łączy internetowych w witrynie. Dane te można analizować w celu określenia zachowania klienta i wzorców zakupów.

Dane niestrukturyzowane to takie dane, które nie są zgodne z określonym formatem lub standardem. W rzeczywistości stanowią one większość i są podstawowym wymiarem danych w świecie. Do niedawna jednak rozwiązania technologiczne nie wspierały instytucji finansowych w ich automatycznym pozyskiwaniu i przetwarzaniu, przez co instytucje te nie rozpoznawały większości informacji o klientach i rynku.

Podobnie jak w przypadku danych strukturyzowanych, dane niestrukturyzowane są generowane komputerowo lub generowane przez człowieka. Przykładem tych pierwszych są dane pogodowe lub dane ze zdjęć satelitarnych jak np. Google Earth lub dane w postaci zdjęć i w ramach plików multimedialnych. Natomiast, dane niestrukturyzowane generowane przez człowieka obejmują teksty w dokumentach, wynikach ankiet i wiadomościach e-mail lub dane z mediów społecznościowych, które są generowane przez społeczne platformy medialne, takie jak YouTube, Facebook, Twitter, LinkedIn, YouTube, Flickr lub Instagram

3. Aspekty prywatności i bezpieczeństwa Big Data

Wymagania dotyczące prywatności i bezpieczeństwa dla Big Data są podobne do wymagań w tradycyjnych bazach danych. Wymagania te muszą być ściśle dostosowane do konkretnych potrzeb biznesowych instytucji biznesowych. Do najważniejszych wymiarów należy zaliczyć:

  • Dostęp do danych - dostęp użytkownika do danych w ramach Big Data ma ten sam poziom wymagań technicznych, jak w innych systemach baz danych. Dane powinny być dostępne tylko dla tych użytkowników, którzy mają uzasadnione potrzeby biznesowe do analizy danych i ich wykorzystania biznesowego.
  • Dostęp do aplikacji -  dostęp do danych aplikacji jest stosunkowo prosty z punktu widzenia technicznego. Większość interfejsów programistycznych aplikacji (API) zapewnia ochronę przed nieautoryzowanym użyciem lub dostępem w ramach Big Data
  • Szyfrowanie danych - jest najbardziej wymagającym aspektem bezpieczeństwa w środowisku Big Data. W tradycyjnych środowiskach baz danych, efektowność metod zaszyfrowania i odszyfrowywania danych określa jakość zasobów systemowych. Wielkość, szybkość, rzetelność i różnorodność danych w ramach Big Data oznacza, że problem ten jest bardziej złożony. Najprostszym podejściem jest zapewnienie większej i szybszej możliwości obliczeniowej. Jednakże, to prowadzi to zmniejszania elastyczności wykorzystania Big Data. Bardziej pożądanym podejściem jest zidentyfikowanie elementów danych wymagających tego poziomu bezpieczeństwa i szyfrowanie tylko niezbędnych elementów.
  • Wykrywanie zagrożeń - włączenie urządzeń mobilnych i sieci społecznościowych wykładniczo zwiększa zarówno ilość danych, jak i możliwości zagrożeń dla bezpieczeństwa systemu w wyniku ataków zewnętrznych. Dlatego też ważne jest, aby instytucje finansowe przyjęły podejście wielowymiarowe do kwestii bezpieczeństwa i poufności pozyskiwanych danych w ramach Big Data. 
Wiesz już wszystko? Proponujemy kolejny artykuł...

Przeczytaj też