
Metropolitan Transportation Authority (MTA) w Nowym Jorku rozważa wykorzystanie systemów kamer ze sztuczną inteligencją do prewencji. Mają one pomóc w zapobieganiu przestępstwom i niebezpiecznym zachowaniom na stacjach metra.
Żyjemy w ciekawych czasach. Technologia rozwija się na naszych oczach, jednocześnie przedzierając się do życia codziennego. Być może najnowszy pomysł Metropolitan Transportation Authority – przedsiębiorstwa użyteczności publicznej odpowiedzialnego za transport publiczny w obszarze metropolitalnym Nowego Jorku – stanie się w niedalekiej przyszłości standardem na całym świecie.
Kamery i sztuczna inteligencja – przepis na bezpieczeństwo?
Jak informuje The Verge, MTA rozważa wykorzystanie sztucznej inteligencji do prewencyjnego wykrywania nieodpowiednich, agresywnych zachowań. Michael Kemper, szef bezpieczeństwa MTA, oznajmił, że agencja "bada i testuje technologię taką jak AI, aby wykrywać potencjalne problemy lub problematyczne zachowania na naszych peronach metra". Wyjaśnił, że "jeśli ktoś zachowuje się nieracjonalnie, może to potencjalnie wywołać alert, który sprowokuje reakcję ze strony ochrony lub policji, zanim coś się wydarzy".
Kemper podkreślił, że "AI to przyszłość" i MTA "współpracuje z firmami technologicznymi, aby zbadać, co sprawdzi się w systemie metra". Szczegóły dotyczące firm, z którymi współpracuje MTA, sposobu wdrożenia AI oraz konkretnych zachowań, które mają być wykrywane, nie zostały ujawnione.
Bezpieczeństwo jest ważne, ale czy taki system ma sens?
Aaron Donovan, rzecznik MTA, potwierdził w komunikacie przesłanym The Gothamist, że nowy system nie będzie wykorzystywał rozpoznawania twarzy. "Technologia badana przez MTA ma na celu identyfikację zachowań, nie ludzi" – stwierdził.
W 2023 roku MTA ujawniła, że używa oprogramowania nadzoru opartego na AI do śledzenia osób unikających opłat za przejazd metrem, monitorując kiedy, gdzie i jak najczęściej dochodzi do takich sytuacji. Widać więc, że ta technologia jest obecna i coraz wyraźniej zaznacza swoją obecność w przestrzeni publicznej.
Co sądzicie o tej idei? Czy takie rozwiązanie ma sens? Nie da się ukryć, że technologia potrafi podnieść poziom naszego bezpieczeństwa, jednak bywa ona niedoskonała. Co jeśli ten system nie działa sprawnie i zacznie widzieć problem tam, gdzie go nie ma? Albo jeszcze gorzej: co jeśli ten system nie wykryje oznak agresywnego zachowania i dojdzie do tragedii?
Źródło: The Verge, zdjęcie otwarcia: Mitch Hodiono/Unsplash
Komentarze
1