جستجوی نام کالا، برند یا دسته


مدیرعامل انویدیا می‌گوید چیپ‌های هوش مصنوعی این شرکت با سرعتی بیشتر از قانون مور در حال بهبود هستند.

چهار شنبه 19 دی 1403 79 بازدید کننده گروه آخرین اخبار

مدیرعامل انویدیا، جنسن هوانگ، می‌گوید عملکرد چیپ‌های هوش مصنوعی این شرکت با سرعتی بیشتر از نرخ تاریخی پیش‌بینی‌شده توسط قانون مور در حال پیشرفت است؛ قاعده‌ای که برای دهه‌ها پیشرفت محاسبات را هدایت کرده است.

 

هوانگ در مصاحبه‌ای با TechCrunch در روز سه‌شنبه گفت:
«سیستم‌های ما بسیار سریع‌تر از قانون مور پیشرفت می‌کنند.»
این مصاحبه صبح پس از سخنرانی اصلی او در جمع ۱۰ هزار نفری در نمایشگاه CES در لاس‌وگاس انجام شد.

 

قانون مور که توسط گوردون مور، یکی از بنیان‌گذاران اینتل، در سال ۱۹۶۵ معرفی شد، پیش‌بینی می‌کرد تعداد ترانزیستورهای روی چیپ‌های کامپیوتری تقریباً هر سال دو برابر می‌شود و این افزایش باعث دو برابر شدن عملکرد آن‌ها خواهد شد. این پیش‌بینی تا حد زیادی محقق شد و موجب پیشرفت سریع فناوری و کاهش هزینه‌ها برای چندین دهه شد.

در سال‌های اخیر، سرعت پیشرفت قانون مور کاهش یافته است. با این حال، هوانگ مدعی است که چیپ‌های هوش مصنوعی انویدیا با سرعتی فراتر از آن پیش می‌روند. به گفته این شرکت، سوپرچیپ جدید مرکز داده آن بیش از ۳۰ برابر سریع‌تر از نسل قبلی در اجرای بارهای کاری استنتاج هوش مصنوعی عمل می‌کند.

هوانگ توضیح داد:
«ما می‌توانیم معماری، چیپ، سیستم، کتابخانه‌ها و الگوریتم‌ها را هم‌زمان توسعه دهیم. اگر این کار را انجام دهید، می‌توانید سریع‌تر از قانون مور پیشرفت کنید، چون می‌توانید در کل زنجیره نوآوری کنید.»

این ادعای جسورانه از سوی مدیرعامل انویدیا در زمانی مطرح می‌شود که بسیاری از افراد در حال بررسی این موضوع هستند که آیا پیشرفت‌های هوش مصنوعی متوقف شده‌اند یا نه. آزمایشگاه‌های پیشروی هوش مصنوعی مانند گوگل، OpenAI، و Anthropic از چیپ‌های هوش مصنوعی انویدیا برای آموزش و اجرای مدل‌های خود استفاده می‌کنند، و پیشرفت در این چیپ‌ها احتمالاً به پیشرفت قابلیت‌های مدل‌های هوش مصنوعی منجر خواهد شد.

 

این نخستین بار نیست که هوانگ ادعا می‌کند انویدیا از قانون مور فراتر رفته است. او در نوامبر در یک پادکست اشاره کرد که دنیای هوش مصنوعی در مسیر «فرا-قانون مور» قرار دارد.

هوانگ این ایده که پیشرفت هوش مصنوعی کند شده است را رد می‌کند. او ادعا می‌کند اکنون سه قانون فعال برای مقیاس‌پذیری هوش مصنوعی وجود دارد: پیش‌تمرین، مرحله اولیه‌ای که در آن مدل‌های هوش مصنوعی از داده‌های حجیم الگو می‌گیرند؛ پس‌تمرین، که در آن پاسخ‌های مدل با استفاده از روش‌هایی مانند بازخورد انسانی تنظیم می‌شود؛ و محاسبات در زمان آزمون، که در مرحله استنتاج انجام می‌شود و به مدل اجازه می‌دهد زمان بیشتری برای «فکر کردن» پس از هر سؤال داشته باشد.

 

هوانگ به TechCrunch گفت:
«قانون مور در تاریخ محاسبات بسیار مهم بود، چون هزینه‌های محاسبات را کاهش می‌داد. همین اتفاق قرار است در استنتاج هوش مصنوعی رخ دهد، جایی که عملکرد افزایش می‌یابد و در نتیجه، هزینه استنتاج کاهش پیدا خواهد کرد.»

(البته، انویدیا با بهره‌گیری از رشد هوش مصنوعی به باارزش‌ترین شرکت جهان تبدیل شده است، بنابراین چنین اظهاراتی به نفع هوانگ خواهد بود.)

 

 

چیپ‌های H100 انویدیا انتخاب اصلی شرکت‌های فناوری برای آموزش مدل‌های هوش مصنوعی بودند. اما اکنون که تمرکز این شرکت‌ها بیشتر بر استنتاج است، برخی از کارشناسان این سؤال را مطرح کرده‌اند که آیا چیپ‌های گران‌قیمت انویدیا همچنان در صدر باقی خواهند ماند یا خیر.

مدل‌های هوش مصنوعی که از محاسبات در زمان آزمون (test-time compute) استفاده می‌کنند، امروزه هزینه بالایی دارند. نگرانی وجود دارد که مدل o3 شرکت OpenAI، که از نسخه مقیاس‌یافته محاسبات در زمان آزمون بهره می‌برد، برای بسیاری از افراد بیش از حد گران باشد. به عنوان مثال، OpenAI تقریباً ۲۰ دلار برای هر تسک با استفاده از o3 هزینه کرده است تا امتیازهای هم‌سطح انسان در یک آزمون هوش عمومی به دست آورد. این در حالی است که اشتراک ماهانه ChatGPT Plus تنها ۲۰ دلار هزینه دارد.

 

هوانگ در سخنرانی روز دوشنبه خود، چیپ سوپرمرکز داده جدید انویدیا، GB200 NVL72، را مانند یک سپر به نمایش گذاشت. این چیپ در اجرای بارهای کاری استنتاج هوش مصنوعی ۳۰ تا ۴۰ برابر سریع‌تر از چیپ‌های محبوب قبلی انویدیا، یعنی H100، عمل می‌کند. هوانگ می‌گوید این جهش عملکردی به معنای آن است که مدل‌های استنتاجی هوش مصنوعی مانند o3 OpenAI، که در مرحله استنتاج از منابع محاسباتی قابل توجهی استفاده می‌کنند، با گذر زمان ارزان‌تر خواهند شد.

 

هوانگ اظهار داشت که تمرکز کلی او بر تولید چیپ‌های با عملکرد بهتر است، زیرا چنین چیپ‌هایی در بلندمدت منجر به کاهش هزینه‌ها می‌شوند. او به TechCrunch گفت:
«راه‌حل مستقیم و فوری برای محاسبات در زمان آزمون، هم در عملکرد و هم در مقرون‌به‌صرفه بودن هزینه‌ها، افزایش قابلیت‌های محاسباتی ما است.»

وی همچنین اشاره کرد که در بلندمدت، مدل‌های استنتاجی هوش مصنوعی می‌توانند داده‌های بهتری برای مراحل پیش‌تمرین و پس‌تمرین مدل‌های هوش مصنوعی تولید کنند.

کاهش چشمگیر قیمت مدل‌های هوش مصنوعی در سال گذشته، تا حدی به دلیل پیشرفت‌های محاسباتی شرکت‌های سخت‌افزاری مانند انویدیا بوده است. هوانگ می‌گوید انتظار دارد این روند با مدل‌های استنتاجی هوش مصنوعی نیز ادامه پیدا کند، حتی اگر نسخه‌های اولیه آن‌ها مانند مدل‌های OpenAI بسیار گران بوده باشند.

 

به طور کلی، هوانگ مدعی است که چیپ‌های هوش مصنوعی انویدیا امروزه ۱۰۰۰ برابر بهتر از چیپ‌هایی هستند که این شرکت ۱۰ سال پیش تولید می‌کرد. این نرخ پیشرفت بسیار سریع‌تر از استاندارد تعیین‌شده توسط قانون مور است، که به گفته او، هیچ نشانه‌ای از توقف آن در آینده نزدیک وجود ندارد.

منبع: TechCrunch


مدیرعامل انویدیا می‌گوید چیپ‌های هوش مصنوعی این شرکت با سرعتی بیشتر از قانون مور در حال بهبود هستند.پخش عمده لوازم جانبی کامپیوتر - لپ تاپ - موبایل | فروشگاه پخش سیما شیراز1/8/2025مدیرعامل انویدیا، جنسن هوانگ، می‌گوید عملکرد چیپ‌های هوش مصنوعی این شرکت با سرعتی بیشتر از... مدیرعامل انویدیا، جنسن هوانگ، می‌گوید عملکرد چیپ‌های هوش مصنوعی این شرکت با سرعتی بیشتر از نرخ تاریخی پیش‌بینی‌شده توسط قانون مور در حال پیشرفت است؛ قاعده‌ای که برای دهه‌ها پیشرفت محاسبات را هدایت کرده است. هوانگ در مصاحبه‌ای با TechCrunch در روز سه‌شنبه گفت:«سیستم‌های ما بسیار سریع‌تر از قانون مور پیشرفت می‌کنند.»این مصاحبه صبح پس از سخنرانی اصلی او در جمع ۱۰ هزار نفری در نمایشگاه CES در لاس‌وگاس انجام شد. قانون مور که توسط گوردون مور، یکی از بنیان‌گذاران اینتل، در سال ۱۹۶۵ معرفی شد، پیش‌بینی می‌کرد تعداد ترانزیستورهای روی چیپ‌های کامپیوتری تقریباً هر سال دو برابر می‌شود و این افزایش باعث دو برابر شدن عملکرد آن‌ها خواهد شد. این پیش‌بینی تا حد زیادی محقق شد و موجب پیشرفت سریع فناوری و کاهش هزینه‌ها برای چندین دهه شد.در سال‌های اخیر، سرعت پیشرفت قانون مور کاهش یافته است. با این حال، هوانگ مدعی است که چیپ‌های هوش مصنوعی انویدیا با سرعتی فراتر از آن پیش می‌روند. به گفته این شرکت، سوپرچیپ جدید مرکز داده آن بیش از ۳۰ برابر سریع‌تر از نسل قبلی در اجرای بارهای کاری استنتاج هوش مصنوعی عمل می‌کند.هوانگ توضیح داد:«ما می‌توانیم معماری، چیپ، سیستم، کتابخانه‌ها و الگوریتم‌ها را هم‌زمان توسعه دهیم. اگر این کار را انجام دهید، می‌توانید سریع‌تر از قانون مور پیشرفت کنید، چون می‌توانید در کل زنجیره نوآوری کنید.»این ادعای جسورانه از سوی مدیرعامل انویدیا در زمانی مطرح می‌شود که بسیاری از افراد در حال بررسی این موضوع هستند که آیا پیشرفت‌های هوش مصنوعی متوقف شده‌اند یا نه. آزمایشگاه‌های پیشروی هوش مصنوعی مانند گوگل، OpenAI، و Anthropic از چیپ‌های هوش مصنوعی انویدیا برای آموزش و اجرای مدل‌های خود استفاده می‌کنند، و پیشرفت در این چیپ‌ها احتمالاً به پیشرفت قابلیت‌های مدل‌های هوش مصنوعی منجر خواهد شد. این نخستین بار نیست که هوانگ ادعا می‌کند انویدیا از قانون مور فراتر رفته است. او در نوامبر در یک پادکست اشاره کرد که دنیای هوش مصنوعی در مسیر «فرا-قانون مور» قرار دارد.هوانگ این ایده که پیشرفت هوش مصنوعی کند شده است را رد می‌کند. او ادعا می‌کند اکنون سه قانون فعال برای مقیاس‌پذیری هوش مصنوعی وجود دارد: پیش‌تمرین، مرحله اولیه‌ای که در آن مدل‌های هوش مصنوعی از داده‌های حجیم الگو می‌گیرند؛ پس‌تمرین، که در آن پاسخ‌های مدل با استفاده از روش‌هایی مانند بازخورد انسانی تنظیم می‌شود؛ و محاسبات در زمان آزمون، که در مرحله استنتاج انجام می‌شود و به مدل اجازه می‌دهد زمان بیشتری برای «فکر کردن» پس از هر سؤال داشته باشد. هوانگ به TechCrunch گفت:«قانون مور در تاریخ محاسبات بسیار مهم بود، چون هزینه‌های محاسبات را کاهش می‌داد. همین اتفاق قرار است در استنتاج هوش مصنوعی رخ دهد، جایی که عملکرد افزایش می‌یابد و در نتیجه، هزینه استنتاج کاهش پیدا خواهد کرد.»(البته، انویدیا با بهره‌گیری از رشد هوش مصنوعی به باارزش‌ترین شرکت جهان تبدیل شده است، بنابراین چنین اظهاراتی به نفع هوانگ خواهد بود.)  چیپ‌های H100 انویدیا انتخاب اصلی شرکت‌های فناوری برای آموزش مدل‌های هوش مصنوعی بودند. اما اکنون که تمرکز این شرکت‌ها بیشتر بر استنتاج است، برخی از کارشناسان این سؤال را مطرح کرده‌اند که آیا چیپ‌های گران‌قیمت انویدیا همچنان در صدر باقی خواهند ماند یا خیر.مدل‌های هوش مصنوعی که از محاسبات در زمان آزمون (test-time compute) استفاده می‌کنند، امروزه هزینه بالایی دارند. نگرانی وجود دارد که مدل o3 شرکت OpenAI، که از نسخه مقیاس‌یافته محاسبات در زمان آزمون بهره می‌برد، برای بسیاری از افراد بیش از حد گران باشد. به عنوان مثال، OpenAI تقریباً ۲۰ دلار برای هر تسک با استفاده از o3 هزینه کرده است تا امتیازهای هم‌سطح انسان در یک آزمون هوش عمومی به دست آورد. این در حالی است که اشتراک ماهانه ChatGPT Plus تنها ۲۰ دلار هزینه دارد. هوانگ در سخنرانی روز دوشنبه خود، چیپ سوپرمرکز داده جدید انویدیا، GB200 NVL72، را مانند یک سپر به نمایش گذاشت. این چیپ در اجرای بارهای کاری استنتاج هوش مصنوعی ۳۰ تا ۴۰ برابر سریع‌تر از چیپ‌های محبوب قبلی انویدیا، یعنی H100، عمل می‌کند. هوانگ می‌گوید این جهش عملکردی به معنای آن است که مدل‌های استنتاجی هوش مصنوعی مانند o3 OpenAI، که در مرحله استنتاج از منابع محاسباتی قابل توجهی استفاده می‌کنند، با گذر زمان ارزان‌تر خواهند شد. هوانگ اظهار داشت که تمرکز کلی او بر تولید چیپ‌های با عملکرد بهتر است، زیرا چنین چیپ‌هایی در بلندمدت منجر به کاهش هزینه‌ها می‌شوند. او به TechCrunch گفت:«راه‌حل مستقیم و فوری برای محاسبات در زمان آزمون، هم در عملکرد و هم در مقرون‌به‌صرفه بودن هزینه‌ها، افزایش قابلیت‌های محاسباتی ما است.»وی همچنین اشاره کرد که در بلندمدت، مدل‌های استنتاجی هوش مصنوعی می‌توانند داده‌های بهتری برای مراحل پیش‌تمرین و پس‌تمرین مدل‌های هوش مصنوعی تولید کنند.کاهش چشمگیر قیمت مدل‌های هوش مصنوعی در سال گذشته، تا حدی به دلیل پیشرفت‌های محاسباتی شرکت‌های سخت‌افزاری مانند انویدیا بوده است. هوانگ می‌گوید انتظار دارد این روند با مدل‌های استنتاجی هوش مصنوعی نیز ادامه پیدا کند، حتی اگر نسخه‌های اولیه آن‌ها مانند مدل‌های OpenAI بسیار گران بوده باشند. به طور کلی، هوانگ مدعی است که چیپ‌های هوش مصنوعی انویدیا امروزه ۱۰۰۰ برابر بهتر از چیپ‌هایی هستند که این شرکت ۱۰ سال پیش تولید می‌کرد. این نرخ پیشرفت بسیار سریع‌تر از استاندارد تعیین‌شده توسط قانون مور است، که به گفته او، هیچ نشانه‌ای از توقف آن در آینده نزدیک وجود ندارد.منبع: TechCrunch5.0

ارتباط با ما

خرید حضوری : شیراز چهارراه خیرات پاساژ توحید طبقه فوقانی فروشگاه پخش سیما 32326724 071

امور مربوط به خرید آنلاین : 32361585 - 32361386 - 071

راهنمایی جهت خرید عمده : 09036831615

ثبت نام در خبرنامه فروشگاه

با ثبت نام در خبرنامه اولین نفری خواهید بود که از آخرین محصولات ، اخبار و فروش های ویژه و کدهای تخفیف ما مطلع می گردید ، پیشنهادات شگفت انگیز را دریافت کنید .

فروشگاه پخش سیما

پخش سیما فعالیت خود را از سال 1383 در زمینه‌ی فروش لوازم جانبی موبایل ، کامپیوتر و لپ تاپ به صورت عمده و خرد آغاز نموده است . مجموعه پخش سیما با اخذ نمایندگی رسمی پخش محصولات بسیاری از شرکت‌های ایرانی و خارجی سعی در کمتر شدن قیمت تمام شده برای مشتریان خود دارد . پخش سیما فروشگاه اینترنتی خود را در سال 1396 راه اندازی کرده که سهولت در امر خرید و کم شدن هزینه آمد و شد را برای خریداران فراهم کرده است.

logo-samandehi

تمام حقوق برای فروشگاه سیماپیسی محفوظ می باشد   فروشگاه لوازی دیجیتالی  و کامپیوتری سیما پی سی |