
Kluczowi specjaliści zajmujący się badaniami nad AI wzywają do monitorowania "procesów myślowych" modeli sztucznej inteligencji. Jak będzie wyglądać przyszłość AI?
AI, czyli sztuczna inteligencja, staje się coraz bardziej zaawansowana, a jej rozwój budzi wiele pytań dotyczących bezpieczeństwa i etyki. W odpowiedzi na te obawy, liderzy z OpenAI, Google DeepMind i innych organizacji opublikowali dokument, w którym apelują o monitorowanie tzw. „myśli” AI.
Sztuczna inteligencja naśladuje ludzkie procesy myślowe
Jak podaje serwis Tech Crunch, nowoczesne modele sztucznej inteligencji, korzystają z tzw. łańcuchów myślowych (Chain of Thought, CoT), które naśladują ludzkie podejście do rozwiązywania problemów krok po kroku. Dzięki temu AI potrafi lepiej analizować złożone zadania i uzasadniać swoje decyzje. Zdaniem ekspertów obserwacja i monitorowanie tych "procesów myślowych" może stać się kluczowym narzędziem w zapewnieniu kontroli nad sztuczną inteligencją. Szczególnie, gdy jej zastosowanie staje się tak powszechne i wpływa na życie wielu z nas.
Autorzy raportu zwracają uwagę, że dzisiejsza przejrzystość łańcuchów myślowych (CoT) w modelach AI nie jest gwarantowana na przyszłość. Podkreślają potrzebę pogłębionych badań nad mechanizmami, które pozwalają na ich monitorowanie. Istnieje też ryzyko, że wprowadzanie zmian czy interwencji w działanie tych systemów może osłabić zarówno czytelność procesów decyzyjnych AI, jak i ich niezawodność.
Wśród sygnatariuszy apelu znajdują się znane postacie, takie jak Mark Chen z OpenAI i Geoffrey Hinton. Dokument ten jest próbą zjednoczenia liderów branży w celu zwiększenia badań nad bezpieczeństwem AI.
Konkurencja nie śpi
Publikacja dokumentu zbiega się z intensywną konkurencją w branży technologicznej. Firmy takie jak Meta próbują przechwycić specjalistów z OpenAI i Google DeepMind poprzez oferowanie im niewiarygodnie atrakcyjnych warunków pracy.
Mimo imponujących postępów w zwiększaniu wydajności sztucznej inteligencji, wciąż pozostaje tajemnicą, w jaki sposób modele dochodzą do swoich odpowiedzi. Problem ten staje się coraz bardziej istotny wraz z rosnącym zastosowaniem AI w kluczowych obszarach życia. Dlatego firmy takie jak Anthropic koncentrują się na badaniach nad interpretowalnością algorytmów, które mają na celu odsłonięcie mechanizmów działania modeli i umożliwienie lepszego zrozumienia podejmowanych przez nie decyzji.
Komentarze
1- czy naśladuje?
- czy nas zje?
- nadchodzi SkyNET !
- halucynacje AI
- AI zmyśla
to są straszliwe bzdury. AI jedyne co potrafi, to wbija w swój system który w praktyce jest ogromnym zestawem wielowymiarowych wektorów, wbija to co mu się podrzuci. Czy to robi efektywnie? jak widać ....... niemal tak, z większym naciskiem na 'niemal' a z mniejszym na 'tak'.
potem jest to całe 'wnioskowanie', a w praktyce bieganie i wyszukiwanie najbardziej pasujących wektórów (to taka strzałka z początkiem i końcem, tyle że tu nie ma 1 wymiaru jak na osi, nie ma 2 wymiarów jak na płaszczyźnie, nie ma 3 wymiarów jak w przestrzeni, lecz grubo powyżej 1000 i to jest właśnie ta "ilość zmiennych w modelu AI"
to co robi AI, jest jedynie papugowaniem. papuga też potrafi powtarzać słowa po człowieku. nie wszystkie, ale sporo. tyle że papuga jak coś, to dosyć mgliście może rozumieć intencje danego zestawu słów, ale zazwyczaj jest to bezmyślne powtórzenie, bo ....... pasuje do danej sytuacji, do kontekstu. I dokładnie to samo robi AI. Tutaj dla AI jest bez znaczenia czy to jest obraz graficzny i idąc dalej kawałek video, jakieś abstrakcyjne odniesienia do grafów i zależności, czy też symulacja mowy i tłumaczenie kontekstowe. To wszystko jest robione niemal tak samo. Jedyne różnice to jest przygotowanie danych wejścia, a potem obróbka w celu prezentacji danych wyjścia. Przykładem danych wyjścia jest właśnie obraz, mowa, tekst, czy też przełożenie na sterowanie silnikami w zaawansowanych robotach czego przykładem jest Boston Dynamics (niestety już nie są samodzielną firmą).