Nauka

Sztuczna inteligencja na pomoc przy trzęsieniach ziemi

z dnia
Wojciech Kulik | Redaktor serwisu benchmark.pl
3 komentarze Dyskutuj z nami

Naukowcy z Uniwersytetu Harvarda i firmy Google znaleźli kolejne zastosowanie dla sztucznej inteligencji. Może ona pomagać przy przewidywaniu trzęsień ziemi.

„Istnieją trzy rzeczy, jakie chcemy wiedzieć na temat trzęsień ziemi: kiedy wystąpią, jakie będą konsekwencje oraz gdzie dokładnie będą ich główne wstrząsy i echa. Na dwa pierwsze pytania możemy odpowiedzieć już dzisiaj, a obecnie pracujemy nad tym trzecim” – powiedział Brendan Mead, profesor Uniwersytetu Harvarda. Pomóc może sztuczna inteligencja.

Naukowcy z Uniwersytetu Harvarda i firmy Google wspólnie opracowali rozwiązanie umożliwiające skuteczne przewidywanie, gdzie mogą wystąpić trzęsienia ziemi i następujące po nich wstrząsy wtórne, i tym samym przeciwdziałanie ich potencjalnym skutkom. 

Podstawą tego rozwiązania jest sztuczna inteligencja, a konkretnie sieć neuronowa, której podano informacje na temat około 130 tysięcy par trzęsienie-echo (czyli wstrząs-wstrząs wtórny). Dzięki większej liczbie branych pod uwagę czynników, poprawność przewidywań ma być znacznie większa.

Co to znaczy „znacznie większa”? W aktualnie wykorzystywanych metodach osiąga się skuteczność na poziomie 0,583 (w skali od 0 do 1). Sztuczna inteligencja natomiast podnosi ten wskaźnik aż do 0,849. Większa liczba danych może jeszcze dodatkowo zwiększyć skuteczność.

Do sfinalizowania prac nad algorytmem pozostała jeszcze długa droga. Mimo to początek jest naprawdę obiecujący.

Źródło: Engadget, The Verge, Science Daily, Nature. Foto: Angelo_Giordano/Pixabay (CC0)

Komentarze

3
Zaloguj się, aby skomentować
avatar
Dodaj
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Konto usunięte
    Warto pamietac ze wskaznik accuracy jest w odniesieniu do danych "valuation".

    Problem z trzesieniami jest taki ze nie znamy dokladnych przyczyn w 100%. Nie mamy pelnego zakresu czynnikow.

    Tego typu modele nie maja dokladnosci jak tutaj zacytowano w 84.9% (to sa % nie 0.849 bo to tylko accuracy decimal ktory normalnie konwertuje sie do % dla laikow).

    84.9% dla danych "valuation" (czyli mieli np. 96% dla danych treningowych, i pewnie 90% dla testowych).

    Normalnie bierzemy 70% dla treningu, 20% dla testowych i 10 % valuation (10% to dane ktore nigdy nie byly podane w czasie nauki modelu, 20% sa uzywane zeby zwiekszych wydajnosc i poprawic model)).


    W rzeczywistosci trudno stwierdzic dokladnosc DOPOKI nie przetestujemy na danych rzeczywistosci.

    Dokladnosc koncowa podajemy po treningu i pozniej aplikowaniu predictions do REALNYCH danych w przeciagu tyg / 2 tyg / 4tyg, nie dla validation data set...


    Warto o tym pamietac i wspomniec jaki data set byl uzyty do zmierzenia dokladnosci danego modelu.
    3
  • avatar
    Kapitan Nocz
    ej co się dzieje, na benchmarku jest tylko jeden ekspert od trzesien ziemi?! Czyzby początek roku szkolengo uziemił pozostałych znawców. gejmerzy mają już pewnie coś na zadnie domowe i nie moga się wypowiedzieć :D
    -2