Flaga - Unia Europejska
Wróć
11.04.2024

Naj w AI #18 – Jak rozmawiać z LLM?

AI

Naj w AI #18 – Jak rozmawiać z LLM?

AUTOR: Maciej Rubczyński – Head of Development | Big Data & AI Solutions Architect w TIDK

Ostatnie miesiące wyklarowały trzech głównych liderów wśród LLM: Claude, który wyprzedził już w rankingach dotychczasowego dominatora GPT, oraz Gemini od Google. Każdy z tych modeli ma swoją specyfikę i możemy uzyskać lepsze rezultaty trochę inaczej formułując do nich zapytania. Już w Naj w AI #4 wspomniany był poradnik pisania zapytań zaproponowany przez OpenAI, podobny istnieje w dokumentacji Claude, a w zeszłym tygodniu swoją wersję sugestii i rekomendacji dotyczących pisania promptów dostarczył Google. Warto więc porównać jakie metody rozmowy ze swoimi rozwiązaniami polecają ich twórcy.

OpenAI podkreśla jasność, specyfikę i użycie zaawansowanych strategii promptowania w celu zwiększenia jakości wyjścia modelu. Kluczowe techniki obejmują:

  • Jasność i Specyfika: OpenAI radzi użytkownikom, aby byli jak najbardziej jasni i konkretni w swoich promptach, aby kierować model do generowania pożądanego wyjścia.
  • Promptowanie Łańcuchem Myśli: Ta metoda polega na proszeniu modelu o przedstawienie procesu rozumowania krok po kroku, co może znacząco poprawić dokładność i głębię odpowiedzi.
  • Promptowanie Roli: Przypisanie modelowi konkretnej roli, takiej jak nauczyciel czy historyk, aby kształtować jego odpowiedzi zgodnie z oczekiwaną wiedzą specjalistyczną lub perspektywą tej roli.
  • Nauka na Kilku Przykładach: Dostarczenie modelowi kilku przykładów pożądanego wyjścia, aby lepiej zrozumiał zadanie.
  • Użycie Narzędzi Zewnętrznych: OpenAI sugeruje wykorzystanie modelu do generowania kodu lub poleceń dla zewnętrznych narzędzi, gdy jest to odpowiednie, zwiększając użyteczność modelu poza jego wewnętrzną bazą wiedzy.

Podejście Google’a z modelem Gemini obejmuje strukturalne prompty i multimodalne wejścia, oferując szerszy zakres interakcji:

  • Strukturalne Prompty: Google zachęca do używania strukturalnych promptów, gdzie użytkownicy dostarczają zestaw przykładowych żądań i odpowiedzi, aby kierować wyjście modelu. Ta technika jest szczególnie przydatna dla zadań wymagających konkretnych informacji lub formatowania.
  • Dostarczaj kontekst wypowiedzi
  • Bądź jasny i przejrzysty w swoich zapytaniach
  • Zamień złożone prompty na kilka prostszych
  • Wejścia Wizualne i Multimodalne: Możliwości Gemini rozszerzają się na rozumienie i generowanie odpowiedzi na podstawie wejść wizualnych oraz tekstu. Pozwala to na bardziej złożone i subtelne interakcje z modelem.

W przypadku Claude Anthropic zaleca:

  • Szczegółowe Prompty: Claude lepiej radzi sobie z jasnymi i konkretnymi instrukcjami, dostarczając szczegółowego kontekstu, aby upewnić się, że model rozumie intencję i generuje pożądane wyjście.
  • Użycie Przykładów: Włączenie przykładów do promptów może kierować odpowiedzi Claude’a, demonstrując pożądany format i treść.
  • Przyznanie Niepewności: Zachęcanie Claude’a do przyznania, kiedy nie jest pewny lub brakuje mu wystarczających informacji, może pomóc w łagodzeniu problemów takich jak halucynacje czy nieistotne odpowiedzi.
  • Iteracyjne Udoskonalanie: Ciągłe iterowanie i udoskonalanie promptów na podstawie generowanych wyjść jest kluczowe dla optymalnej wydajności z Claude’em.

Widać więc, że niektóre elementy się powtarzają między modelami. Niezależnie od tego z którego rozwiązania korzystamy warto dostarczyć mu dodatkowe przykłady. Każdy model ma jednak swoje unikalne cechy, co powoduje różnice w rekomendacjach do wejściowych zapytań. Różnice są widoczne także w odpowiedziach generowanych przez modele, GPT-4 z reguły dostarcza krótkie konkretne odpowiedzi, podczas gdy Claude dodaje fragment dłuższego komentarza wyjaśniającego treść odpowiedzi.

W przyszłości może to sprawić sporo problemów systemom opartym bezpośrednio na tych generycznych modelach. Nietrudno wyobrazić sobie sytuację gdy rozwiązanie korzystające z GPT będzie wymagało zmiany na Claude lub Gemini, wystarczy, że OpenAI podniesie ceny lub konkurencyjny model będzie miał znacznie wyższą skuteczność odpowiedzi. Taka zmiana w ramach rozwiązania nie będzie jednak trywialna, skoro będzie nieść za sobą również przepisanie promptów do modeli i odpowiednie ich dostosowanie.

Andrej Karpathy w swoim już wielokrotnie cytowanym tweecie twierdził, że już niedługo najpopularniejszym językiem programowania będzie język angielski. Jeśli okaże się to prawdą to i tak prawdopodobnie w wydaniu, w którym istnieje konieczność dostosowania języka zapytań do odbiorcy, w tym przypadku modelu. Nasuwa się pytanie, czy to tak bardzo różni się od komunikacji naturalnej między ludźmi? Wielokrotnie każdy z nas uważnie dobiera słowa pod osobę z którą rozmawia, każdy ma nieco inny styl komunikacji.

Źródła:

Partnerstwa

tidk logo

Bałtycka 6
61-013 Poznań