Ciekawostki

Badacze są pełni obaw. Czy AI naśladuje ludzkie procesy myślowe?

przeczytasz w 2 min.

Kluczowi specjaliści zajmujący się badaniami nad AI wzywają do monitorowania "procesów myślowych" modeli sztucznej inteligencji. Jak będzie wyglądać przyszłość AI?

AI, czyli sztuczna inteligencja, staje się coraz bardziej zaawansowana, a jej rozwój budzi wiele pytań dotyczących bezpieczeństwa i etyki. W odpowiedzi na te obawy, liderzy z OpenAI, Google DeepMind i innych organizacji opublikowali dokument, w którym apelują o monitorowanie tzw. „myśli” AI.

Sztuczna inteligencja naśladuje ludzkie procesy myślowe

Jak podaje serwis Tech Crunch, nowoczesne modele sztucznej inteligencji, korzystają z tzw. łańcuchów myślowych (Chain of Thought, CoT), które naśladują ludzkie podejście do rozwiązywania problemów krok po kroku. Dzięki temu AI potrafi lepiej analizować złożone zadania i uzasadniać swoje decyzje. Zdaniem ekspertów obserwacja i monitorowanie tych "procesów myślowych" może stać się kluczowym narzędziem w zapewnieniu kontroli nad sztuczną inteligencją. Szczególnie, gdy jej zastosowanie staje się tak powszechne i wpływa na życie wielu z nas. 

Autorzy raportu zwracają uwagę, że dzisiejsza przejrzystość łańcuchów myślowych (CoT) w modelach AI nie jest gwarantowana na przyszłość. Podkreślają potrzebę pogłębionych badań nad mechanizmami, które pozwalają na ich monitorowanie. Istnieje też ryzyko, że wprowadzanie zmian czy interwencji w działanie tych systemów może osłabić zarówno czytelność procesów decyzyjnych AI, jak i ich niezawodność.

Wśród sygnatariuszy apelu znajdują się znane postacie, takie jak Mark Chen z OpenAI i Geoffrey Hinton. Dokument ten jest próbą zjednoczenia liderów branży w celu zwiększenia badań nad bezpieczeństwem AI.

Konkurencja nie śpi

Publikacja dokumentu zbiega się z intensywną konkurencją w branży technologicznej. Firmy takie jak Meta  próbują przechwycić specjalistów z OpenAI i Google DeepMind poprzez oferowanie im niewiarygodnie atrakcyjnych warunków pracy. 

Mimo imponujących postępów w zwiększaniu wydajności sztucznej inteligencji, wciąż pozostaje tajemnicą, w jaki sposób modele dochodzą do swoich odpowiedzi. Problem ten staje się coraz bardziej istotny wraz z rosnącym zastosowaniem AI w kluczowych obszarach życia. Dlatego firmy takie jak Anthropic koncentrują się na badaniach nad interpretowalnością algorytmów, które mają na celu odsłonięcie mechanizmów działania modeli i umożliwienie lepszego zrozumienia podejmowanych przez nie decyzji.

Komentarze

1
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    GejzerJara
    0
    jak zwykle pełno pseudo sensacji:
    - czy naśladuje?
    - czy nas zje?
    - nadchodzi SkyNET !
    - halucynacje AI
    - AI zmyśla

    to są straszliwe bzdury. AI jedyne co potrafi, to wbija w swój system który w praktyce jest ogromnym zestawem wielowymiarowych wektorów, wbija to co mu się podrzuci. Czy to robi efektywnie? jak widać ....... niemal tak, z większym naciskiem na 'niemal' a z mniejszym na 'tak'.

    potem jest to całe 'wnioskowanie', a w praktyce bieganie i wyszukiwanie najbardziej pasujących wektórów (to taka strzałka z początkiem i końcem, tyle że tu nie ma 1 wymiaru jak na osi, nie ma 2 wymiarów jak na płaszczyźnie, nie ma 3 wymiarów jak w przestrzeni, lecz grubo powyżej 1000 i to jest właśnie ta "ilość zmiennych w modelu AI"

    to co robi AI, jest jedynie papugowaniem. papuga też potrafi powtarzać słowa po człowieku. nie wszystkie, ale sporo. tyle że papuga jak coś, to dosyć mgliście może rozumieć intencje danego zestawu słów, ale zazwyczaj jest to bezmyślne powtórzenie, bo ....... pasuje do danej sytuacji, do kontekstu. I dokładnie to samo robi AI. Tutaj dla AI jest bez znaczenia czy to jest obraz graficzny i idąc dalej kawałek video, jakieś abstrakcyjne odniesienia do grafów i zależności, czy też symulacja mowy i tłumaczenie kontekstowe. To wszystko jest robione niemal tak samo. Jedyne różnice to jest przygotowanie danych wejścia, a potem obróbka w celu prezentacji danych wyjścia. Przykładem danych wyjścia jest właśnie obraz, mowa, tekst, czy też przełożenie na sterowanie silnikami w zaawansowanych robotach czego przykładem jest Boston Dynamics (niestety już nie są samodzielną firmą).

    Witaj!

    Niedługo wyłaczymy stare logowanie.
    Logowanie będzie możliwe tylko przez 1Login.

    Połącz konto już teraz.

    Zaloguj przez 1Login