Gonka ujawnia mechanizm PoC i kierunek rozwoju modelu: dostosowanie do rzeczywistej mocy obliczeniowej, zapewnienie ciągłego udziału wielopoziomowych GPU
Odaily poinformował, że zdecentralizowana sieć AI do udostępniania mocy obliczeniowej Gonka niedawno podczas AMA w społeczności wyjaśniła etapowe zmiany w mechanizmie PoC oraz sposobie działania modeli. Główne zmiany obejmują: ujednolicenie działania PoC i inferencji na tym samym dużym modelu, zmianę sposobu aktywacji PoC z opóźnionego przełączania na niemal natychmiastowe wyzwalanie oraz optymalizację sposobu obliczania wagi mocy obliczeniowej, aby lepiej odzwierciedlała rzeczywiste koszty obliczeniowe różnych modeli i sprzętu.
Współzałożyciel David podkreślił, że powyższe zmiany nie są skierowane na krótkoterminowe zyski lub pojedynczych uczestników, lecz są konieczną ewolucją struktury konsensusu i weryfikacji w związku z szybkim wzrostem skali mocy obliczeniowej sieci. Celem jest zwiększenie stabilności i bezpieczeństwa sieci w warunkach dużego obciążenia oraz stworzenie podstaw do obsługi większych obciążeń AI w przyszłości.
W odpowiedzi na dyskusje w społeczności dotyczące problemu wysokiej produkcji tokenów przez małe modele na obecnym etapie, zespół zauważył, że rzeczywiste zużycie mocy obliczeniowej dla różnych rozmiarów modeli przy tej samej liczbie tokenów różni się znacząco. Wraz z rozwojem sieci w kierunku większej gęstości mocy obliczeniowej i bardziej złożonych zadań, Gonka stopniowo dostosowuje wagę mocy obliczeniowej do rzeczywistych kosztów obliczeniowych, aby uniknąć długoterminowej nierównowagi struktury mocy, co mogłoby wpłynąć na ogólną skalowalność sieci.
W ramach najnowszego mechanizmu PoC, sieć skróciła czas aktywacji PoC do poniżej 5 sekund, ograniczając marnotrawstwo mocy obliczeniowej spowodowane przełączaniem modeli i oczekiwaniem, dzięki czemu zasoby GPU mogą być w większym stopniu wykorzystywane do efektywnych obliczeń AI. Jednocześnie, poprzez ujednolicenie działania modeli, zmniejszono koszty systemowe związane z przełączaniem węzłów pomiędzy konsensusem a inferencją, zwiększając ogólną efektywność wykorzystania mocy obliczeniowej.
Zespół podkreślił również, że pojedyncze karty oraz małe i średnie GPU mogą nadal uzyskiwać dochody i uczestniczyć w zarządzaniu poprzez współpracę w pulach wydobywczych, elastyczne uczestnictwo według Epoch oraz zadania inferencyjne. Długoterminowym celem Gonka jest wsparcie długotrwałej koegzystencji różnych poziomów mocy obliczeniowej w tej samej sieci poprzez ewolucję mechanizmów.
Gonka poinformował, że wszystkie kluczowe zmiany zasad są wprowadzane poprzez zarządzanie on-chain i głosowanie społeczności. W przyszłości sieć będzie stopniowo wspierać więcej typów modeli i zadań AI, zapewniając globalnie GPU o różnej skali ciągłą i przejrzystą przestrzeń do uczestnictwa, wspierając długoterminowy, zdrowy rozwój zdecentralizowanej infrastruktury AI do udostępniania mocy obliczeniowej.
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
