Koniec z kompromisami! DFloat11 ratuje dokładność modeli AI, czyli kompresja, na którą czekałem

Koniec z kompromisami! DFloat11 ratuje dokładność modeli AI, czyli kompresja, na którą czekałem

Koniec z kompromisami! DFloat11 ratuje dokładność modeli AI, czyli kompresja, na którą czekałem Od kiedy na dobre zanurzyłem się w świat modeli językowych, jedna rzecz nie dawała mi spokoju. Z jednej strony mamy potężne, ale gigantyczne modele w formacie 16-bitowym (jak BFloat16), które oferują niemal bezstratną jakość, ale wymagają do tego serwerowni i fortuny na …

Czytaj dalej

Symulacja Myślenia: Jak Dwuetapowy Prompt Niemal Podwaja Skuteczność LLM w Rozwiązywaniu Złożonych Problemów

Symulacja Myślenia

Symulacja Myślenia: Jak Dwuetapowy Prompt Niemal Podwaja Skuteczność LLM w Rozwiązywaniu Złożonych Problemów Od „Dwóch Umysłów” do „Symulacji Myślenia” – Ewolucja Idei W moim poprzednim artykule, „Zwiększanie potencjału modeli językowych: Dwa podejścia bez dodatkowego treningu”, eksplorowałem złożone architektury promptów, aby poprawić jakość odpowiedzi modeli językowych. Ten projekt jest kolejnym krokiem w moich poszukiwaniach, prezentując ewolucję …

Czytaj dalej

Zwiększanie Potencjału Modeli Językowych: Dwa Podejścia Bez Dodatkowego Treningu

Zwiększanie Potencjału Modeli Językowych

Zwiększanie Potencjału Modeli Językowych: Dwa Podejścia Bez Dodatkowego Treningu Poszukując sposobów na poprawę jakości odpowiedzi generowanych przez modele AI i nie znajdując pełnej satysfakcji w standardowo dostępnych rozwiązaniach, doszedłem do własnych pomysłów na dwa mechanizmy rozumowania. Chciałbym od razu podkreślić, że nie mam wiedzy, czy podobne metody były wcześniej przez kogoś stosowane czy opisywane w …

Czytaj dalej

Czy warto wybrać GlobalGPT? Plusy i minusy w praktyce

GlobalGPT

Czy warto wybrać GlobalGPT? Plusy i minusy w praktyce GlobalGPT to interesujący projekt, który znajdziecie na stronie glbgpt.com. Oferuje on dostęp do szerokiej gamy narzędzi AI – od chatbotów takich jak o1-preview, Claude 3.5 Sonnet, Gemini 1.5 Pro, DeepSeek, czy Llama 3.1 405B, przez generatory grafik jak DALL-E 3, Midjourney, Flux, po generatory wideo takie …

Czytaj dalej

Co się dzieje z PLLuM? Nowe informacje

PLLuM

Co się dzieje z PLLuM? Nowe informacje W poprzednim artykule zastanawialiśmy się nad losem projektu PLLuM (Polish Large Language Universal Model) i brakującymi informacjami na temat jego postępów. Nasze pytania i obawy były w pełni uzasadnione, gdyż od czerwca 2024 roku na oficjalnej stronie projektu panowała cisza. Jednakże 9 stycznia 2025 roku na stronie projektu …

Czytaj dalej

Co się dzieje z PLLuM?

Co się dzieje z PLLuM?

Co się dzieje z PLLuM? Od kilku miesięcy na oficjalnej stronie projektu PLLuM — czyli „pierwszego” dużego, otwartego modelu językowego w języku polskim — panuje cisza. Ostatni wpis datowany jest na 20 czerwca 2024 roku. Tymczasem mamy już 3 stycznia 2025 roku, a model miał zostać udostępniony do końca 2024 roku. W tym czasie powstał …

Czytaj dalej

Rewolucja w Przetwarzaniu AI: Sohu od Etched – 20x Szybszy od Konkurencji

Sohu od Etched

Rewolucja w Przetwarzaniu AI: Sohu od Etched – 20x Szybszy od Konkurencji W dziedzinie sztucznej inteligencji (AI), tempo rozwoju jest oszałamiające i wcale nie wygląda żeby miało zwolnić. Każdego roku pojawiają się nowe osiągnięcia, które zmieniają zasady gry. Najnowszym graczem, który przyciąga uwagę, jest startup Etched ze swoim rewolucyjnym układem Sohu, który może przetwarzać modele …

Czytaj dalej

Zużycie Pamięci w Kontekście Wnioskowania i Dostrajania Modeli Językowych

Zużycie Pamięci

Zużycie Pamięci w Kontekście Wnioskowania i Dostrajania Modeli Językowych Wnioskowanie: Wymagania Pamięciowe Wnioskowanie, czyli generowanie odpowiedzi przez model językowy, jest procesem mniej zasobochłonnym niż pełne dostrajanie modelu. Modele o wielkości 7B mogą być uruchamiane na kartach graficznych takich jak NVIDIA RTX A4000, która posiada 16 GB VRAM. Przy zastosowaniu odpowiednich optymalizacji, możliwe jest również wnioskowanie …

Czytaj dalej

TOPS i TFLOPS w Kontekście Użycia GPU do Wnioskowania i Szkolenia

TOPS i TFLOPS w Kontekście Użycia GPU do Wnioskowania i Szkolenia

TOPS i TFLOPS w Kontekście Użycia GPU do Wnioskowania i Szkolenia W obliczeniach wysokowydajnych, zwłaszcza w kontekście sztucznej inteligencji (AI) i uczenia maszynowego (ML), wskaźniki wydajności takie jak TOPS (Tera Operations Per Second) i Teraflops (Tera Floating Point Operations Per Second) odgrywają kluczową rolę. W tym artykule omówimy, co oznaczają te miary, jak są używane …

Czytaj dalej

YOCO: Nowe Podejście do Modelowania Języka

YOCO

YOCO: Nowe Podejście do Modelowania Języka Modelowanie języka to kluczowy komponent w uczeniu maszynowym, umożliwiający przewidywanie kolejności słów oraz poprawiający zrozumienie i generowanie ludzkiego języka. Stanowi fundament dla wielu aplikacji, takich jak podsumowywanie tekstów, tłumaczenie czy systemy autouzupełniania. Efektywne modelowanie języka wiąże się jednak z poważnymi wyzwaniami, szczególnie w przypadku dużych modeli. Największe trudności to …

Czytaj dalej

Nowy Model GPT-4o: Pierwsze Wrażenia i Uwagi

GPT-4o

Nowy Model GPT-4o: Pierwsze Wrażenia i Uwagi Kurz już opadł po prezentacji OpenAI, podczas której zaprezentowano możliwości nowego modelu GPT-4o. Choć na razie mamy dostęp tylko do wersji tekstowej, jest to ta sama wersja, która w przyszłości ma zostać wzbogacona o wszystkie zaprezentowane funkcjonalności. Dla tych, którzy nie mieli okazji zapoznać się z pokazem, warto …

Czytaj dalej

BLOG TECHNOLOGICZNY Gadzety360.pl
Przegląd prywatności

Ta strona korzysta z ciasteczek, aby zapewnić Ci najlepszą możliwą obsługę. Informacje o ciasteczkach są przechowywane w przeglądarce i wykonują funkcje takie jak rozpoznawanie Cię po powrocie na naszą stronę internetową i pomaganie naszemu zespołowi w zrozumieniu, które sekcje witryny są dla Ciebie najbardziej interesujące i przydatne.