Nauka

Automatyczne analizy big data - i człowiek wymięka

z dnia 2015-10-20
Wojciech Kulik | Redaktor serwisu benchmark.pl
7 komentarzy Dyskutuj z nami

Ludzie nie mają szans w starciu z zaawansowanym algorytmem analitycznym. Przynajmniej pod względem szybkości.

bigdata

Analiza big data polega na przeszukiwaniu ogromnych ilości danych w pogoni za ukrytym w nich wzorcem definiującym daną właściwość. I choć dzięki komputerom proces ten jest znacznie szybszy, to wybranie kluczowych „cech” kryjących się za wzorcem zwykle wymaga ludzkiej intuicji. Naukowcy z instytutu MIT chcą jednak całkowicie wykluczyć czynnik ludzki z systemów analitycznych big data. 

Projektowane przez nich oprogramowanie poszukuje nie tylko samych wzorów, ale też właśnie zestawów cech potwierdzających ich istnienie. W pierwszym teście system Data Science Machine wziął udział w trzech konkursach analitycznych wraz z 906 zespołami złożonymi z naukowców. DSM okazał się lepszy od 615 z nich.

W dwóch spośród trzech konkursów system Data Science Machine osiągał dokładność prognoz na poziomie 94 i 96 proc., w trzecim jedynie 87 proc. To, co jest jednak najbardziej godne uwagi to fakt, że podczas gdy naukowcy najczęściej potrzebowali miesięcy na opracowanie skutecznych algorytmów, systemowi DSM w zależności od złożoności wystarczyło od 2 do 12... godzin. 

Czemu Data Science Machine zawdzięcza swoją skuteczność? Przede wszystkim zastosowanej tutaj technice uczenia maszynowego. System bierze pod uwagę różne czynniki, sprawdza korelacje pomiędzy nimi i analizuje otrzymane wyniki, dzięki czemu wie, czego ma się spodziewać przy następnym „podejściu”. Duże znaczenie w strukturalnych bazach danych mają też relacje, których interpretacja jest konieczna do poprawnego działania systemu. 

Big data wczoraj, dziś i jutro

Jednym z pierwszych zastosowań big data była analiza danych obserwacyjnych w astronomii. Dzięki pomocy maszyn człowiek mógł obserwować nie jedną (lub kilka) gwiazd, lecz całe ich miliony. Wraz z rosnącą popularnością tego typu systemów także same algorytmy uległy poprawie i to, co dziś stosujemy, to całkiem inna działka big data niż analizy sprzed kilkunastu lat.

Ten artykuł pochodzi ze strony benchmark.pl

Według naukowców z MIT systemy takie jak Data Science Machine sprawdzą się przede wszystkim tam, gdzie kluczowym czynnikiem jest czas. Być może bowiem nie są w stu procentach tak dokładne jak ludzie, ale są w stanie osiągnąć zbliżone rezultaty kilkanaście razy szybciej.

„Data Science Machine może być naturalnym uzupełnieniem ludzkiej inteligencji. Jest tak wiele danych do przeanalizowania. Może więc uda nam się stworzyć rozwiązanie, które bardzo szybko przynajmniej wskaże nam miejsce, w którym powinniśmy zacząć” – powiedział Max Kanter z MIT, będący jednym z pomysłodawców DSM.

Źródło: EurekAlert, SlashGear

marketplace

Komentarze

7
Zaloguj się, żeby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Hmmm - ale to nie jest jakieś wielkie zaskoczenie. Najzwyklejszy PC szybciej policzy 393240983294 x 30894730947 niż człowiek. Po to właśnie stworzono komputery. A poza tym - algorytmy dla tych analitycznych maszyn napisali .... ludzie ;) Może i te algorytmy się uczą, ale tego uczenia nauczyli je ... też ludzie.
    Zaloguj się
  • avatar
    Z jakiego powodu nie napisaliście że big data bierze informacje ze spyware'u zainstalowanego w urządzeniach?