MIT tədqiqatçıları kontekst pəncərəsi məhdudiyyətini aşan RLM yanaşmasını təqdim etdi

MIT CSAIL RLM yanaşmasını təqdim etdi: mətn REPL-də dəyişən kimi saxlanır, model isə seçmə sorğularla 10 milyon tokendən çoxu işləyir.

20.01.26 - 08:47
 0  4
MIT tədqiqatçıları kontekst pəncərəsi məhdudiyyətini aşan RLM yanaşmasını təqdim etdi
MIT CSAIL-in RLM yanaşması və LLM kontekst pəncərəsi mövzusu @startuphub.ai

Mediahub.az-da reklam xidməti

Mediahub.az-da reklam xidməti

MIT tədqiqatçıları kontekst pəncərəsi məhdudiyyətini aşan RLM yanaşmasını təqdim etdi

«startuphub.ai» məlumatına görə, MIT-nin Kompüter Elmləri və Süni Zəka Laboratoriyasının (CSAIL) tədqiqatçıları Recursive Language Models (RLM) adlı ümumi inferensiya strategiyasını təqdim edib.

Yanaşma böyük dil modellərinin “kontekst pəncərəsi” məhdudiyyətini yan keçərək effektiv giriş uzunluğunu 10 milyon tokendən çox miqyaslandıra bilir.

Son Xəbərlər
Xiaomi 15 Ultra Qlobal Versiyası
Xiaomi 15 Ultra Qlobal Versiyası

Xiaomi yeni flaqman modeli Xiaomi 15 Ultra-nı qlobal satışa çıxaracağını təsdiqlədi. HyperOS 2.0 ilə yeni dövr başlayır!

Samsung-un Üçqatlanan Telefonu
Samsung-un Üçqatlanan Telefonu

Samsung, Galaxy Unpacked tədbirində üçqatlanan telefon konseptini təqdim etdi. Yeniliklər haqqında daha çox məlumat əldə edin.

Realme GT 7
Realme GT 7: Ən Ucuz Smartfon

Snapdragon 8 Elite çipi ilə Realme GT 7 fevral ayında təqdim ediləcək. Yeni xüsusiyyətlər və uyğun qiymət gözləyir.

Məqalədə uzun mətnlərdə keyfiyyətin tez düşməsi kimi təsvir olunan “kontekst çürüməsi” problemi hədəflənir. Qeyd edilir ki, həddi keçəndən sonra mətni təkrar xülasələşdirməyə söykənən üsullar məlumat itkisi yaradır və çoxaddımlı məntiq tapşırıqlarında uğursuzluğa aparır.

RLM-də uzun mətn birbaşa modelə “yüklənmir”, Python Read-Eval-Print Loop (REPL) mühitində dəyişən kimi saxlanır. Model isə kod yazıb icra etməklə həmin dəyişəndən yalnız lazım olan hissələri seçərək sorğulayır və rekursiv şəkildə özünü çağıraraq yekun nəticəni qurur.

Dörd tapşırıq üzrə qiymətləndirmədə - dərin araşdırma, məlumatların toplanması, kod repozitoriyasının anlaşılması (CodeQA) və sintetik cüt-müqayisə (OOLONG) - RLM-lərin 10 milyon+ token miqyasında da güclü nəticə verdiyi bildirilir. BrowseComp+ (1 min sənəd) tapşırığında GPT-5 ilə işləyən RLM-in 91,33 faiz dəqiqlik göstərdiyi qeyd olunur.

Materialda həmçinin xərclərdən bəhs edilir: RLM-lərin seçmə baxış hesabına 3 dəfəyədək daha ucuz ola bildiyi, çünki modelin hər cavabda bütün ardıcıllığı emal etmədiyi vurğulanır. Yanaşmanın modeldən asılı olmadığı və həm qapalı (GPT-5), həm də açıq mənbə (Qwen3-Coder) modellərə tətbiq oluna biləcəyi qeyd olunur.

Bu xəbəri necə dəyərləndirirsiniz?

like

dislike

love

funny

angry

sad

wow

Anar Mirzəyev Bu, mənim sevdiyim işdir və bu işdən zövq alıram. Xəbər və məqalələr yaratmaq, onları araşdırıb təqdim etmək mənim üçün çox maraqlıdır. Oxucularla dəyərli və maraqlı məlumatları paylaşmaqdan böyük məmnunluq duyuram.