a blog about tech.
-
Podsumowanie spotkania – whisper w praktyce
W jednym z poprzednich wpisów przygotowałem POC wyciągania ścieżki dźwiękowej z filmu, generowanie transkrypcji oraz następnie przygotowanie podsumowania spotkania. Chciałbym teraz to rozwiązanie wynieść na trochę wyższy poziom. Prawdopodobnie wciąż nie będzie to gotowe rozwiązanie,…
-
OpenAI – Asystenci
Ostatnia nowość od OpenAI, poza obniżeniem cenników za modele, to kreator asystentów (w chatGPT)…
-
POC – porozmawiaj z centrum pomocy – bazy wektorowe part 3
Kontynuując poprzedni wpis o bazach wektorowych warto rozbudować nieco mechanizm SimilaritySearch, aby właściwie skorzystać…
-
Techniki tworzenia promptów
Oto lista technik wg których można tworzyć prompty do modelu AI Więcej na temat technik projektowania promptów tutaj: https://www.promptingguide.ai Jest taki żarcik krążący wśród programistów: Nie po to szedłem do IT, żeby teraz rozmawiać z ludźmi Jeśli konieczność używania w codziennej pracy modeli LLM stanie się faktem, może się okazać, że umiejętności twarde jeszcze bardziej…
-
Jak działa temperatura
LLMy opierają się na prostej zasadzie. Jaki powinien być dlaszy ciąg tekstu? Będąc bardziej precyzyjnym: jaki token powinien pojawić się jako następny? Najpierw szybko zobaczmy, czym w ogóle są tokeny, czyli jak GPT widzi tekst. Jest do tego bardzo fajne narzędzie: https://platform.openai.com/tokenizerWpisując tam tekst możemy łatwo zobaczyć jak gpt dzieli słowa na tokeny oraz jakie…