Na topie

Elastyczna infrastruktura IT w walce z nadmiarem danych

Autor:
Przemysław Jankowski

więcej artykułów ze strefy:
Technologie i Firma

Żyjemy w świecie, w którym ilość przetwarzanych danych rośnie w zastraszającym tempie. Czy czeka nas Data Armageddon i przeciążenie nadmiarem danych?

Bryond

AA

Internet pełen jest szacunkowych danych, opracowywanych przez wielu analityków z równie wielu firm, które podają, że około 90 proc. globalnych danych to wytwór ostatnich dwóch lat. Do 2020 roku mamy przetwarzać już 44 biliony gigabajtów, co uderzy bezpośrednio w firmy i przyczynić może się do przeciążenia sieci. Pytanie, co zrobić mogą polscy przedsiębiorcy, by przygotować się na Data Armageddon?

Już w 1970 roku futurolog Alvin Toffler pisał o przeciążeniu informacyjnym, które czeka nas w przyszłości. Dziś, przyszłość ta stała się naszą codziennością, a czarne wizje są coraz bardziej realne, gdyż liczba prywatnych oraz publicznych informacji stała się tak duża, że już niedługo możemy faktycznie stracić nad nimi kontrolę.

Źródeł danych jest mnóstwo, a zaliczyć do nich można internet, Big Data, intranety korporacyjne, wiadomości e-mail, e-commerce, ERP, CRM, media strumieniowe, video oraz aplikacje. Za każdym ze źródeł stoją kolejne dane do przechowywania, których stale przybywa i przybywać będzie, gdyż rozwój technologiczny nie zwalnia i zwolnić nie zamierza.

Natłok informacji od Internetu Rzeczy

Według analityków Gartnera, do 2020 roku na świecie będzie 26 miliardów podłączonych do sieci urządzeń. Podłączonych, a zatem generujących i konsumujących dane. Powstające i zyskujące na popularności podłączone do sieci samochody, inteligentne domu czy technologie ubieralne nie przyczynią się do stabilizacji w tej materii.

Jako przykład tempa produkowania nowych danych niech posłużą samoloty brytyjskich linii lotniczych Virgin Mobile. Wykorzystują one rozwiązania telematyczne i jeden samolot w ciągu pojedynczego lotu może wytworzyć nawet 0,5 mln GB danych. Cała flota tych linii wykonuje 21 tys. lotów rocznie, do daje nam ponad 10 milionów GB.

Analitycy przewidują, że w nadchodzącej dekadzie Internet Rzeczy wymusi na firmach weryfikacje posiadanych zasobów, które pozwalają na przesyłanie i zarządzanie danymi. - Firmy, żeby utrzymać wysoki poziom konkurencyjności, są wręcz skazane na przyjęcie coraz większej ilość danych klientów oraz zapewnienie tym informacjom stabilnej infrastruktury.  Umożliwi ona obsługę i zarządzanie zgodnie z oczekiwaniami użytkowników. - komentuje Łukasz Polak, wiceprezes Beyond.pl.

Data Armageddon

Rozwiązanie to elastyczna infrastruktura

W obliczu nieuchronnego potopu informacji, przedsiębiorstwa powinny nie tylko spróbować zminimalizować ryzyko związane z bezpieczeństwem przechowywania danych, ale również zastanowić się nad sposobem ich przetwarzania oraz dystrybucji na potrzeby biznesowe.

Dane charakteryzują się tym, że mają być dostępne w dowolnym miejscu i czasie, a w wielu przypadkach w jednym momencie korzysta z nich kilka tysięcy pracowników, czego doskonałym przykładem są firmy ubezpieczeniowe. Dostęp do danych jest niezbędny, nic dziwnego więc, że ich rosnąca liczba zwiększa presję na wydajność i skalowalność infrastruktury IT.

Nowoczesna infrastruktura IT w firmie, by sprostać nowym wymaganiom, musi stawiać na elastyczność i dostosowywać się do obowiązujących realiów. Pytanie brzmi zatem, czy rozbudowywać posiadane zasoby IT czy zdecydować się na ich outsourcing?

Za outsourcingiem przemawia możliwość zmiany - w dowolnym momencie - zasobów serwerowych przez zewnętrznego dostawcę bez inwestowania w dodatkową infrastrukturę. Jak zauważa Łukasz Polak z Beyond.pl - Już za moment przyrost danych oraz zapotrzebowanie na moc obliczeniową osiągną gigantyczne rozmiary. Firmy, chcąc jednocześnie zachować stabilność, bezpieczeństwo i optymalność działania swoich usług muszą poszukać odpowiednich rozwiązań, które im to zagwarantują. Decydując się na wybór zewnętrznego dostawcy usług IT, otrzymują cenne know how tym zakresie.

Źródło: dot PR; Beyond.pl; inf. własna

Odsłon: 4789 Skomentuj newsa
Komentarze

4

Udostępnij
  1. Orlyyyy
    Oceń komentarz:

    2    

    Opublikowano: 2015-12-21 12:41

    Wytrenowaliście mnie już dobrze. Jak widziałem taki tytuł to byłem pewien, że to artykuł sposnorowany.

    Skomentuj

  2. BrumBrumBrum
    Oceń komentarz:

    0    

    Opublikowano: 2015-12-21 13:43

    no pewnie że sponsorowany :)
    z jednej strony same sieci reklamowe i różne serwisy ściągają mnóstwo danych, z drugiej my robimy wszystko aby tych danych im nie dawać, ze względu na zagrożenie sklonowania tożsamości (w internecie oczywiście) i robienia fraudów.

    generalnie, całe mnóstwo danych jest zbierane bez jakiejkolwiek cywilizacyjnej i społecznej potrzeby, a danymi karmi się głównie znienawidzony przez nas marketing. ten post też pewnie zostanie kompletnie niepotrzebnie utrwalony.

    Skomentuj

  3. kokosnh
    Oceń komentarz:

    1    

    Opublikowano: 2015-12-21 14:14

    Armageddon to ja mam na CPU, dokładnie prolimatech armageddon :D

    Skomentuj

  4. cyberant
    Oceń komentarz:

    0    

    Opublikowano: 2016-01-11 11:23

    Moim skromny zdaniem... powinni opracować system wybierania ważności informacji. Jakieś ustawienie priorytetów. W chwili obecnej jest tendencja do archiwizowania wszystkiego. A większość generowanych informacji to śmieci do których nikt nigdy nie wróci. Dane powinny być gromadzone przez jakiś czas, potem analizowane, z analizy generowane podsumowania i tylko podsumowania powinny zostać trzymane (przez jakiś czas).

    Nawet preferencje użytkownika... przecież się zmieniają. To że ktoś kiedyś lubił kolorowe czapki nie oznacza że zawsze będzie lubił i że trzeba mu je po 10 latach proponować gdy ponownie odwiedzi stronę firmy w której je kupował.

    Skomentuj

Dodaj komentarz

Przy komentowaniu prosimy o przestrzeganie netykiety i regulaminu.

Aby dodać komentarz musisz być zalogowany!