Autor: Jan Żaba

  • Context is the King!

    Context is the King!

    Co najmniej kilka osób z którymi rozmawiałem na temat sztucznej inteligencji, wypowiadało się z podziwem na temat tej technologii, ale gdy zapytałem o efekty ich eksperymentów z modelem (głównie GPT 3.5) wspominali o tym, że działa to niesamowicie, ale jednak nic konkretnego lub wartościowego nie byli w stanie stworzyć. Owszem, model podpowiedział rozwiązanie, albo zaproponował…

  • Co zamiast chatGPT?

    Co zamiast chatGPT?

    AI na codzień to przede wszystkim wsparcie. Widać to po historii wątków na naszym wspólnym koncie z subskrypcją ChatGPT. Niestety ChatGPT ma dwa podstawowe minusy. Pokazuje to jasno, że sam model nie wystarczy. Potrzebna jest do niego finezyjna otoczka, która zadba, aby wyniki były adekwatne do naszych potrzeb. Bardzo ciekawym narzędziem jest Perplexity.ai . To model, który…

  • Prompt Engineering i Prompt Injection

    Prompt Engineering i Prompt Injection

    Wdrażanie LLM do zadań projektowych to w większości praca z danymi.Aby móc zastosować model najpierw trzeba zebrać potrzebne dane w jednymi miejscu, zorganizować je (np uwspólnić format danych, czy uszeregować wg ważności). Model nie jest również w stanie na raz przyjąć za dużo danych, więc wymaga to od nas wygenerowania podsumowań, a może dodanie możliwości…

  • Makro pod skrótem klawiszowym

    Makro pod skrótem klawiszowym

    Tym razem coś bardzo praktycznego. To rozwiązanie działa tylko na OSX, ale prawdopodobnie można znaleźć odpowiedniki do innych systemów. Używam wbudowaną w osx aplikację Shortcuts i tworzę tam akcje do łączenia się z GPT-4 Następnie na przykład w notatniku (czy akurat tam gdzie pracuję) tworzę sobie krótkie polecenie Następnie kopiuję ten tekst, wywołuję skrót klawiszowy,…

  • AI do moderowania inputu użytkownika

    AI do moderowania inputu użytkownika

    Bardzo ciekawe narzędzie od OpenAI, które może wspierać proces automatycznego moderowania inputu użytkownika.Endpoint jest bardzo prosty. Przykład: oczywistym jest, że taka fraza nie powinna pojawić się na forum, w komentarzu itp. Co odpowiada nam model? pole flagged zwraca wartość true. Widzimy, że wypowiedź została sklasyfikowana jako harassment, dostępny jest również scoring dla poszczególnych kategorii. Użycie…

  • Techniki tworzenia promptów

    Techniki tworzenia promptów

    Oto lista technik wg których można tworzyć prompty do modelu AI Więcej na temat technik projektowania promptów tutaj: https://www.promptingguide.ai Jest taki żarcik krążący wśród programistów: Nie po to szedłem do IT, żeby teraz rozmawiać z ludźmi Jeśli konieczność używania w codziennej pracy modeli LLM stanie się faktem, może się okazać, że umiejętności twarde jeszcze bardziej…

  • Jak działa temperatura

    Jak działa temperatura

    LLMy opierają się na prostej zasadzie. Jaki powinien być dlaszy ciąg tekstu? Będąc bardziej precyzyjnym: jaki token powinien pojawić się jako następny? Najpierw szybko zobaczmy, czym w ogóle są tokeny, czyli jak GPT widzi tekst. Jest do tego bardzo fajne narzędzie: https://platform.openai.com/tokenizerWpisując tam tekst możemy łatwo zobaczyć jak gpt dzieli słowa na tokeny oraz jakie…