Flaga - Unia Europejska
Wróć
15.02.2024

Naj w AI #11 Google udostępnia Gemini Advanced, nadchodzi GPT-5?

AI

Naj w AI #11 Google udostępnia Gemini Advanced, nadchodzi GPT-5?

AUTOR: Maciej Rubczyński – Head of Development | Big Data & AI Solutions Architect w TIDK

Od ponad roku coraz więcej osób korzysta z chatów opartych o LLM w celu dopytywania o treści, podsumowywania ich, wyszukiwania. Rozwiązania te mają potencjał, by zastąpić wyszukiwarki, zapewniając całkiem inne podejście do znajdowania informacji i współpracy z użytkownikiem. Nic dziwnego, że powstaje ich coraz więcej. Do początkowego ChatGPT szybko dołączył Bard od Google, Microsoft wdrożył GPT w ramach Bing, oprócz tego powstaje mnóstwo rozwiązań takich jak np. perplexity.ai, umożliwiających w podobnej formie korzystanie z różnych modeli i powiązanie LLM z wyszukiwaniem, w sensownym sposób pokazując źródła znalezionych informacji.

Ostatnie tygodnie to czas kolejnych zmian i nowości w chatach opartych o LLM. Google ogłosił zmianę Bard na Gemini, rozwiązanie ogłoszone w grudniu zeszłego roku. Naukowcy Google rzucali wtedy wyzwanie GPT-4, twierdząc, że Gemini w wersji Ultra ma wyższą skuteczność niż najlepsze rozwiązanie od OpenAI. Od tego czasu w ChatBot Arena, rankingu LLM tworzonym przez społeczność, Gemini osiągnął 3 miejsce, tylko za dwoma wersjami GPT-4. Zbliżył się do nich więc bardzo mocno, jednocześnie oferując niższą cenę. Od lutego 2024 każdy może zacząć korzystać z Gemini Advanced, który jest dostępny w ramach subskrypcji Google One AI. Koszt to 20$ miesięcznie, jednak jest możliwość przetestowania za darmo przez pierwsze dwa miesiące. Swoją droga ciekawe, że wszyscy wyceniają swoje rozwiązania na 20$ – taka jest cena korzystania z Gemini Advanced, ChatGPT w wersji z GPT-4, a także Perplexity.AI 😊

Google Gemini ma stanowić konkurencję do Microsoft Copilot. Tak jak Microsoft Copilot ma zapewnić nam sprawnego asystenta podczas działania w środowisku Office365, korzystając z Word, Excel czy PowerPoint, Gemini Advanced ma spełnić podobną rolę w ramach Google Workspace. Ten rok będzie więc stał pod znakiem rywalizacji między gigantami w dostarczaniu Asystentów opartych o sztuczną inteligencję, wspierających naszą codzienną pracę. Ciekawie będzie śledzić, jak mocno różnić się będą między sobą w sposobach integracji LLM z narzędziami codziennie wykorzystywanymi przez cały świat.

Co w przypadku gdy chcemy rozmawiać z takim asystentem o naszych plikach? Mamy kilka dokumentów w folderze, chcielibyśmy zadań pytania co do ich treści. Wszystkie wymienione rozwiązania pozwalają na dodanie swoich danych, jednak zawsze jednak wiąże się to z załadowaniem pliku do ich interfejsów. W przypadku wielu plików jest to uciążliwe, podlega ograniczeniom. Alternatywą jest Chat With RTX,  zaproponowany przez NVIDIA. Jest to interfejs chatu opartego o LLM działający lokalnie w naszym środowisku, nie wymaga dostępu do internetu. Mając odpowiednio mocną maszynę już wcześniej można było wykorzystywać modele open-source lub quasi open-source jak LLama, Dolly czy Mistrial. NVIDIA zapewnia jednak w pełni opakowane rozwiązanie, wystarczy je pobrać, uruchomić i już mamy interfejs czatu, w ramach którego możemy wskazać interesujące nas dokumenty i dopytywać o ich treść. Wymagania pozwalają na uruchomienie na prywatnym laptopie, ale jednak takim z średniej/wyższej póki. Konieczna jest karta graficzna z rodziny RTX 30 lub 40 z co najmniej 8GB VRAM i przynajmniej 16GB RAM. Jeśli już jednak zapewnimy wymagania sprzętowe, korzystanie z Chat With RTX jest całkowicie bezpłatne.

Konkurencja się rozwija, ale również hegemon na rynku LLM nie śpi. OpenAI w ostatnich dniach dodał kolejną funkcjonalność do ChatGPT. Model teraz zapamiętuje fragmenty naszych rozmów, by móc lepiej odpowiadać na zadawane przez nas pytania. Przykładowo, jeśli wspomnieliśmy kiedyś w interakcji z czatem, że posiadamy samochód marki Opel, to w konwersacji po dłuższym czasie ChatGPT wciąż będzie miał tą wiedzę. Ma to poprawić skuteczność odpowiedzi, dodać szerszy kontekst do pytań użytkowników. Czy to pozytywna zmiana? Wobec niektórych budzi obawy o zbieranie nadmiarowych informacji i o szanse na wykorzystanie ich poza środowiskiem czata. OpenAI twierdzi, że dane zapisane w pamięci będą wykorzystywane tylko i wyłącznie w kontekście naszych rozmów i nigdzie nie wyciekną, a jednocześnie z poziomu interfejsu będzie możliwe przenalizowanie co tak naprawdę ChatGPT w danym momencie o nas pamięta i usunięcie zapisanych informacji.

Jest to jednak niewielka funkcjonalność w porównaniu do najbliższych planów OpenAI. Sam Altman przemawiał w ostatnich dniach na World Government Summit i sugerował, że GPT-5 będzie jeszcze lepszy w każdej z dziedzin, w której analizowane są aktualnie rezultaty LLM. Według nieoficjalnych źródeł GPT-5 ma zostać udostępniony wiosną 2024 pod nazwą „Gobi”. Można się spodziewać, że również będzie to rozwiązanie multimodalne, podobnie jak Gemini. Na razie nic nie zapowiada więc końca trendu na Gen AI, rok 2024 wciąż żyje popularnością LLM 😊

Źródła:

Partnerstwa

tidk logo

Bałtycka 6
61-013 Poznań