محققان گوگل یک الگوریتم فشردهسازی حافظه جدید برای سیستمهای هوش مصنوعی (AI) به نام TurboQuant معرفی کردهاند که میتواند به میزان قابل توجهی میزان RAM استفاده شده توسط شبکههای عصبی را بدون کاهش عملکرد کاهش دهد. این مطلب توسط TechCrunch گزارش شده است.

هدف این توسعه حذف یکی از محدودیتهای اصلی هوش مصنوعی مدرن – بار بالای RAM است. این الگوریتم از کوانتیزاسیون برداری برای بهینه سازی به اصطلاح حافظه کاری استفاده می کند، بنابراین سیستم می تواند داده های بیشتری را با استفاده از منابع کمتر و حفظ دقت محاسباتی پردازش کند.
گوگل خاطرنشان می کند که این فناوری می تواند میزان استفاده از حافظه را حداقل تا شش برابر کاهش دهد. این می تواند هزینه اجرای هوش مصنوعی را کاهش دهد و عملکرد مدل ها را در مرحله کار بهبود بخشد.
انتظار می رود این توسعه در کنفرانس ICLR 2026 ارائه شود. تا به امروز، این فناوری هنوز در مرحله تحقیقات آزمایشگاهی است و در یک محصول تجاری به کار گرفته نشده است.
کارشناسان خاطرنشان می کنند که در صورت اجرای موفقیت آمیز، TurboQuant می تواند کارایی سیستم های هوش مصنوعی را به میزان قابل توجهی بهبود بخشد، اما فقط تا حدی مشکل مربوط به مصرف حافظه را حل می کند، زیرا به فاز پر منابع آموزش مدل که هنوز هم به قدرت محاسباتی قابل توجهی نیاز دارد، توجه نمی کند.

