Robot powinien mieć „czarną skrzynkę”, która pozwoli poznać motywację stojącą za podjętymi działaniami, które doprowadziły do niebezpiecznej sytuacji.
Coraz częściej w przestrzeni publicznej można (będzie) dostrzec roboty. Mogą pełnić funkcję zmechanizowanych policjantów, konsultantów czy informatorów. Według naukowców, powinny mieć „etyczne czarne skrzynki” – dlaczego i co to takiego?
Zadaniem „etycznej czarnej skrzynki”, tak jak takiej w samolocie, jest rejestrowanie zdarzeń. Ma ona umożliwić śledzenie podejmowanych przez robota decyzji i zrozumienie motywacji stojącej za podjętymi działaniami, które doprowadziły do różnego rodzaju niebezpiecznych sytuacji.
Cytowani przez The Guardian naukowcy z brytyjskich uniwersytetów uważają, że „etyczna czarna skrzynka” powinna znajdować się w podstawowym wyposażeniu każdego obecnego przestrzeni publicznej autonomicznego robota, czyli takiego, który sam się porusza i sam też podejmuje decyzje.
Według nich pomoże to poprawić bezpieczeństwo nas wszystkich – podobnie jak ma to miejsce w przypadku samolotów. Z każdego zdarzenia da się bowiem wyciągnąć najważniejsze wnioski i podjąć odpowiednie działania w celu eliminacji wykrytych problemów.
Pomysł może nie jest rewolucyjny, ale wydaje się, że jest zdecydowanie uzasadniony. Warto też nagłaśniać ten temat, ponieważ aby „system” działał tak jak powinien, stosowanie „czarnych skrzynek” w robotach powinno być nakazane, a nie tylko sugerowane. Uważacie, że byłaby to dobra zasada?
PS Zdjęcie, które otwiera tego newsa (z profilu @bilalfarooqui na Twitterze) przedstawia robota K5, który miał pilnować porządku w Waszyngotnie, ale – nie wiedzieć czemu – wpadł do fontanny, a że nie ma kończyn, ludzie musieli mu pomóc się z niej wydostać.
Źródło: The Guardian, The Verge
Komentarze
5