مدیرعامل انویدیا، جنسن هوانگ، میگوید عملکرد چیپهای هوش مصنوعی این شرکت با سرعتی بیشتر از نرخ تاریخی پیشبینیشده توسط قانون مور در حال پیشرفت است؛ قاعدهای که برای دههها پیشرفت محاسبات را هدایت کرده است.
هوانگ در مصاحبهای با TechCrunch در روز سهشنبه گفت:
«سیستمهای ما بسیار سریعتر از قانون مور پیشرفت میکنند.»
این مصاحبه صبح پس از سخنرانی اصلی او در جمع ۱۰ هزار نفری در نمایشگاه CES در لاسوگاس انجام شد.
قانون مور که توسط گوردون مور، یکی از بنیانگذاران اینتل، در سال ۱۹۶۵ معرفی شد، پیشبینی میکرد تعداد ترانزیستورهای روی چیپهای کامپیوتری تقریباً هر سال دو برابر میشود و این افزایش باعث دو برابر شدن عملکرد آنها خواهد شد. این پیشبینی تا حد زیادی محقق شد و موجب پیشرفت سریع فناوری و کاهش هزینهها برای چندین دهه شد.
در سالهای اخیر، سرعت پیشرفت قانون مور کاهش یافته است. با این حال، هوانگ مدعی است که چیپهای هوش مصنوعی انویدیا با سرعتی فراتر از آن پیش میروند. به گفته این شرکت، سوپرچیپ جدید مرکز داده آن بیش از ۳۰ برابر سریعتر از نسل قبلی در اجرای بارهای کاری استنتاج هوش مصنوعی عمل میکند.
هوانگ توضیح داد:
«ما میتوانیم معماری، چیپ، سیستم، کتابخانهها و الگوریتمها را همزمان توسعه دهیم. اگر این کار را انجام دهید، میتوانید سریعتر از قانون مور پیشرفت کنید، چون میتوانید در کل زنجیره نوآوری کنید.»
این ادعای جسورانه از سوی مدیرعامل انویدیا در زمانی مطرح میشود که بسیاری از افراد در حال بررسی این موضوع هستند که آیا پیشرفتهای هوش مصنوعی متوقف شدهاند یا نه. آزمایشگاههای پیشروی هوش مصنوعی مانند گوگل، OpenAI، و Anthropic از چیپهای هوش مصنوعی انویدیا برای آموزش و اجرای مدلهای خود استفاده میکنند، و پیشرفت در این چیپها احتمالاً به پیشرفت قابلیتهای مدلهای هوش مصنوعی منجر خواهد شد.
این نخستین بار نیست که هوانگ ادعا میکند انویدیا از قانون مور فراتر رفته است. او در نوامبر در یک پادکست اشاره کرد که دنیای هوش مصنوعی در مسیر «فرا-قانون مور» قرار دارد.
هوانگ این ایده که پیشرفت هوش مصنوعی کند شده است را رد میکند. او ادعا میکند اکنون سه قانون فعال برای مقیاسپذیری هوش مصنوعی وجود دارد: پیشتمرین، مرحله اولیهای که در آن مدلهای هوش مصنوعی از دادههای حجیم الگو میگیرند؛ پستمرین، که در آن پاسخهای مدل با استفاده از روشهایی مانند بازخورد انسانی تنظیم میشود؛ و محاسبات در زمان آزمون، که در مرحله استنتاج انجام میشود و به مدل اجازه میدهد زمان بیشتری برای «فکر کردن» پس از هر سؤال داشته باشد.
هوانگ به TechCrunch گفت:
«قانون مور در تاریخ محاسبات بسیار مهم بود، چون هزینههای محاسبات را کاهش میداد. همین اتفاق قرار است در استنتاج هوش مصنوعی رخ دهد، جایی که عملکرد افزایش مییابد و در نتیجه، هزینه استنتاج کاهش پیدا خواهد کرد.»
(البته، انویدیا با بهرهگیری از رشد هوش مصنوعی به باارزشترین شرکت جهان تبدیل شده است، بنابراین چنین اظهاراتی به نفع هوانگ خواهد بود.)
![](https://techcrunch.com/wp-content/uploads/2025/01/Screenshot-2025-01-06-at-10.13.37PM.png?resize=668,327)
چیپهای H100 انویدیا انتخاب اصلی شرکتهای فناوری برای آموزش مدلهای هوش مصنوعی بودند. اما اکنون که تمرکز این شرکتها بیشتر بر استنتاج است، برخی از کارشناسان این سؤال را مطرح کردهاند که آیا چیپهای گرانقیمت انویدیا همچنان در صدر باقی خواهند ماند یا خیر.
مدلهای هوش مصنوعی که از محاسبات در زمان آزمون (test-time compute) استفاده میکنند، امروزه هزینه بالایی دارند. نگرانی وجود دارد که مدل o3 شرکت OpenAI، که از نسخه مقیاسیافته محاسبات در زمان آزمون بهره میبرد، برای بسیاری از افراد بیش از حد گران باشد. به عنوان مثال، OpenAI تقریباً ۲۰ دلار برای هر تسک با استفاده از o3 هزینه کرده است تا امتیازهای همسطح انسان در یک آزمون هوش عمومی به دست آورد. این در حالی است که اشتراک ماهانه ChatGPT Plus تنها ۲۰ دلار هزینه دارد.
هوانگ در سخنرانی روز دوشنبه خود، چیپ سوپرمرکز داده جدید انویدیا، GB200 NVL72، را مانند یک سپر به نمایش گذاشت. این چیپ در اجرای بارهای کاری استنتاج هوش مصنوعی ۳۰ تا ۴۰ برابر سریعتر از چیپهای محبوب قبلی انویدیا، یعنی H100، عمل میکند. هوانگ میگوید این جهش عملکردی به معنای آن است که مدلهای استنتاجی هوش مصنوعی مانند o3 OpenAI، که در مرحله استنتاج از منابع محاسباتی قابل توجهی استفاده میکنند، با گذر زمان ارزانتر خواهند شد.
هوانگ اظهار داشت که تمرکز کلی او بر تولید چیپهای با عملکرد بهتر است، زیرا چنین چیپهایی در بلندمدت منجر به کاهش هزینهها میشوند. او به TechCrunch گفت:
«راهحل مستقیم و فوری برای محاسبات در زمان آزمون، هم در عملکرد و هم در مقرونبهصرفه بودن هزینهها، افزایش قابلیتهای محاسباتی ما است.»
وی همچنین اشاره کرد که در بلندمدت، مدلهای استنتاجی هوش مصنوعی میتوانند دادههای بهتری برای مراحل پیشتمرین و پستمرین مدلهای هوش مصنوعی تولید کنند.
کاهش چشمگیر قیمت مدلهای هوش مصنوعی در سال گذشته، تا حدی به دلیل پیشرفتهای محاسباتی شرکتهای سختافزاری مانند انویدیا بوده است. هوانگ میگوید انتظار دارد این روند با مدلهای استنتاجی هوش مصنوعی نیز ادامه پیدا کند، حتی اگر نسخههای اولیه آنها مانند مدلهای OpenAI بسیار گران بوده باشند.
به طور کلی، هوانگ مدعی است که چیپهای هوش مصنوعی انویدیا امروزه ۱۰۰۰ برابر بهتر از چیپهایی هستند که این شرکت ۱۰ سال پیش تولید میکرد. این نرخ پیشرفت بسیار سریعتر از استاندارد تعیینشده توسط قانون مور است، که به گفته او، هیچ نشانهای از توقف آن در آینده نزدیک وجود ندارد.
منبع: TechCrunch