Aplikacje mobilne

Miesiąc z Gemini Advanced. AI Google’a bywa głupia jak but, ale za to ją lubię

przeczytasz w 2 min.

Gemini Advanced to bezpośrednia odpowiedź Google’a na technologię ChatGPT 4. Korzystam z płatnej wersji od dnia premiery i mam kilka spostrzeżeń.

Kojarzycie tego mema o rozmowy o pracę? 

- Jakie są pana mocne strony? 
- Potrafię ekstremalnie szybko wykonywać skomplikowane obliczenia matematyczne. 
- Imponujące. Ile to jest 48 151 razy 62 342? 
- 25. 
- To nawet nie jest blisko. 
- Ale było szybko. 
- Jest pan przyjęty. 

Takie są moje odczucia odnośnie korzystania z Gemini Advanced. Sztuczna inteligencja Google’a jest ekstremalnie szybka, ale i ekstremalnie głupia. Przy czym na jej głupotę paradoksalnie można patrzeć jak na atut. Już tłumaczę. 

Gemini Advanced kontra ChatGPT 4 i Copilot

"Gdybym poleciał na Księżyc Airbusem A380 z jego maksymalną prędkością, ile czasu zajęłaby podróż?" - takie pytanie zadałem trzem popularnym chatbotom, a następnie odpaliłem stoper. Oto czas wygenerowania pełnej odpowiedzi:

  • Gemini Advanced - 5 sekund;
  • ChatGPT 4 -  28 sekund;
  • Copilot z GPT-4 - 29 sekund. 

A co z samymi odpowiedziami? Cóż… 

GeminiChatGPTCopilot

Zacznę od tego, że każde AI przyjęło nieco inną prędkość samolotu, co jest akurat zrozumiałe, bo faktycznie różne źródła podają różne wartości. W efekcie rozstrzał odpowiedzi sięgający od 14,7 do 17,74 dnia mnie satysfakcjonuje, bo w tym przypadku interesował mnie czas orientacyjny. Ale. 

Choć Gemini Advanced prawidłowo wykonało obliczenia, swoją odpowiedź zaczęło od błędnego stwierdzenia, że "czas podróży na Księżyc Airbusem A380, lecącym z maksymalną prędkością, wynosiłby około 3 lata i 3 miesiące". A na koniec doszedł do wniosku, że "15 dni i 8 godzin to około 3 miesiące i 28 dni", co jest oczywistym idiotyzmem. 

Google Advanced ma wyjątkową tendencję do zmyślania, ale paradoksalnie za to go lubię

Sztuczna inteligencja nie ma mózgu. Sztuczna inteligencja nie myśli jak człowiek. Sztuczna inteligencja nie patrzy na prawdę i fikcję w taki sposób, w jaki postrzegamy je my. Dla sztucznej inteligencji każde polecenie jest matematycznym wzorem, a każda odpowiedź jedynie najbardziej prawdopodobnym ciągiem zer i jedynek, które następnie interfejs użytkownika zamienia na słowa. 

Sposób działania tego typu mechanizmów sprawia, że AI jest podatna na tzw. halucynowanie, czyli przedstawianie fałszywych informacji jako prawdziwe. A przy tym Gemini Advanced robi to w sposób wyjątkowo bezczelny i oczywisty. 

"15 dni i 8 godzin to około 3 miesiące i 28 dni" to tylko jeden z przykładów, ale z pamięci mogę przywołać jeszcze jeden. Raz poprosiłem Gemini Advanced o porównanie dwóch mikrofonów krawatowych, a w odpowiedzi AI zaczęło mnie zasypywać bezużytecznymi danymi na temat wielkości wyświetlacza, użytego procesora i ilości pamięci RAM, więc było oczywiste, że zwyczajnie zmyśla. 

Do odpowiedzi generowanych przez jakąkolwiek sztuczną inteligencję trzeba podchodzić z dystansem, a najlepiej dodatkowo je weryfikować. Gemini Advanced halucynuje w sposób tak bardzo wyraźny, że zazwyczaj wystarczy mi rzut oka, by wiedzieć, które odpowiedzi lub ich fragmenty są wiarygodne, a które nie. 

Dodatkowo Gemini Advanced potrafi wygenerować odpowiedź nawet 6-krotnie szybciej niż ChatGPT 4, co z użytkowego punktu widzenia jest atutem nie do przecenienia. Choć więc technologia OpenAI jest w mojej ocenie bardziej godna zaufania, bardzo często to po apkę Google’a sięgam w pierwszej kolejności. 

PS Google oficjalnie komunikuje, że jego model językowy nie został jeszcze w pełni zoptymalizowany pod kątem języka polskiego. Skoro jednak firma sprzedaje w Polsce swoją usługę za 97 zł miesięcznie, a ta mimo wszystko udziela odpowiedzi w naszym języku, to myślę, że mam prawo oceniać, co za te pieniądze dostaję. 

Komentarze

7
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    tulika
    5
    Z całym szacunkiem, ale uzasadnienie dlaczego niby to atut że Gemini odpowiada szybko, choć bzdury jest na tym samym poziomie co owe odpowiedzi tego AI.
    Ja mogę podać odpowiedź na to pytanie jeszcze szybciej niż każde z tych AI, będzie kompletnie błędna, to też dobrze? Powinno mi to zająć mniej niż 1 sek.

    Ogólnie poziom google w zakresie AI jest nie tylko słaby, ale chyba tam w tych zespołach następują jakieś regresje w kwestii jakości.
    Korzystam z ich huba i asystenta na pokładzie od kilku lat i w ciągu ostatniego roku poziom działania wybitnie się pogorszył. A to nawet nie jest narzędzie tej kategorii.

    Przykładowo częściej źle rozumie, co się mówi, niż kiedyś. Również nie rozumie już niektórych poleceń, które kiedyś rozumiał: jak 'turn on lights for 4 minutes' itd... Nie wspomnę o sytuacjach, które miały miejsce od początku, typu, że hub dobrze zrozumiał pytanie (wyświetla je na ekranie) a po krótkiej chwili zmienia je na inne - często bez sensu i z innej bajki - i na nie odpowiada,,,

    Dlatego raczej osobiście nie spodziewam się, by w najbliższym czasie mogli rywalizować z OpenAI. Nie obchodzą mnie odpowiedzi szybkie jeśli to są bzdury.
    Po co mam tracić czas na sprawdzanie potem wszystkiego??

    Chyba że w pewnym momencie ilość przejdzie w jakość. Bo mają może dużo więcej serwerów do dyspozycji i jak programy zaczną się same udoskonalać, to ta moc za nim to zrobi... No ale i tak najpierw trzeba dobrze zrobić punkt wyjścia...

    A propos kłamania i idiotycznego funkcjonowania, to google drive kolejny przykład. Po wielu latach używania i dodawania kolejnych komputerów nagle się dla mnie okazało że nie da się tego używać.... Proste zadanie zasób 5GB dzielony przez n komputerów nagle ciągle się powiększał i pojemność konta 17GB nagle się okazała mała. Próba zrobienia porządku z bezsensownymi kopiami tego samego to mierzenie się z listą urządzeń typu komputer1 komputer2. Nie wiadomo który jest właściwie który. Próba skasowania na jednej z niepotrzebnych kopii i nagle dane znikają itd... Mas przykładów bezmyślnej implementacji.
    • avatar
      piomiq
      1
      Zrobiono jakieś badania na temat halucynowania AI i wyszło, że dzieje się gdy model zawiera zbyt dużo tzw. tokenów. Nie jestem pewien czy nie mówiono tego na kanale Nauka to lubię, a może na Astrofaza.
      • avatar
        piomiq
        1
        Artykuł całkiem ciekawy. Fajnie przeczytać/znaleźć coś takiego w zalewie pudelkowych/klickbajtowych newsów/artykułów. Dzięki.
        • avatar
          ruchanko
          -3
          Czy jest tu jakaś dupencja która chce się umowic na ruchanko jutro w sobotni wieczór z super ogierem jak ja? :)