پردازندههای گرافیکی NVIDIA بر تراشههای هوش مصنوعی تسلط دارند. اما تعداد زیادی از استارتآپها میگویند معماری جدیدی برای حوزه هوش مصنوعی که به سرعت در حال توسعه است، مورد نیاز است
یک داستان APOCRYPHAL در مورد اینکه چگونه NVIDIA از بازیها و سختافزارهای گرافیکی برای تسلط بر تراشههای هوش مصنوعی – و گربهها را در بر میگیرد، وجود دارد. در سال 2010، بیل دالی، که اکنون دانشمند ارشد NVIDIA است، در حال صرف صبحانه با همکار سابق دانشگاه استنفورد، دانشمند کامپیوتر اندرو نگ، بود که روی پروژه ای با گوگل کار می کرد. دالی میگوید: «او تلاش میکرد تا گربهها را در اینترنت پیدا کند – او آن را اینطور بیان نکرد، اما این کاری بود که او انجام میداد.
Ng در آزمایشگاه Google X روی پروژه ای کار می کرد تا یک شبکه عصبی بسازد که بتواند به تنهایی یاد بگیرد. به شبکه عصبی ده میلیون ویدیوی یوتیوب نشان داده شد و یاد گرفت که چگونه چهره، بدن و گربه انسان را تشخیص دهد – اما برای انجام دقیق این کار، سیستم به هزاران CPU (واحد پردازش مرکزی) نیاز داشت، یعنی پردازندههای اسب کاری که کامپیوترها را تغذیه میکنند. دالی میگوید: «من گفتم، شرط میبندم که میتوانیم این کار را فقط با چند پردازنده گرافیکی انجام دهیم.» GPU ها (واحدهای پردازش گرافیکی) برای بارهای کاری شدیدتر مانند رندر سه بعدی تخصصی هستند – و این باعث می شود در تقویت هوش مصنوعی بهتر از CPU ها باشند.
دالی برای تحقق آن به برایان کاتانزارو، که اکنون تحقیقات یادگیری عمیق را در NVIDIA رهبری میکند، روی آورد. و او – تنها با 12 GPU – ثابت کرد که پردازش موازی ارائه شده توسط GPUها در آموزش مدل تشخیص گربه Ng سریعتر و کارآمدتر از CPUها است.
اما کاتانزارو میخواهد بداند که NVIDIA تلاشهای خود را با هوش مصنوعی فقط به خاطر صبحانههای شانسی شروع نکرده است. در واقع، او قبل از پیوستن به انویدیا در سال 2008، زمانی که هنوز دانشجوی مقطع کارشناسی ارشد در برکلی بود، در حال توسعه پردازندههای گرافیکی برای هوش مصنوعی بود. او میگوید: «موقعیت انویدیا در این بازار تصادفی نیست.
اکنون که NVIDIA بر تراشههای هوش مصنوعی تسلط دارد، زمان و چگونگی این همه چیز بیاهمیت به نظر میرسد. جریان اصلی درآمد NVIDIA که در سال 1993 توسط Jensen Huang تأسیس شد، همچنان گرافیک و بازی است، اما در سال مالی گذشته فروش GPU های آن برای استفاده در مراکز داده به 6.7 میلیارد دلار افزایش یافت. در سال 2019، پردازندههای گرافیکی NVIDIA در 97.4 درصد از موارد شتابدهنده هوش مصنوعی – سختافزاری که برای افزایش سرعت پردازش استفاده میشود – در چهار ارائهدهنده برتر ابری: AWS، Google، Alibaba و Azure مستقر شدند. کارل فروند، تحلیلگر در تحقیقات هوش مصنوعی کامبرین، می گوید: «نزدیک به 100 درصد» بازار را برای آموزش الگوریتم های هوش مصنوعی در اختیار دارد. تقریباً 70 درصد از 500 ابر رایانه برتر از پردازندههای گرافیکی آن استفاده میکنند. تقریباً تمام نقاط عطف هوش مصنوعی در سخت افزار NVIDIA اتفاق افتاده است. گربهیاب یوتیوب Ng، AlphaGo قهرمان بازیهای رومیزی DeepMind، مدل GPT-3 پیشبینی زبان OpenAI همگی بر روی سختافزار NVIDIA اجرا میشوند. این زمینی است که محققان هوش مصنوعی روی آن ایستاده اند.
علیرغم این موفقیت، Catanzaro از این پیشنهاد مداوم مبنی بر اینکه NVIDIA کورکورانه به هوش مصنوعی ناشی از بازی برخورد کرده است، آزرده خاطر است. قسم می خورم، تقریباً هر داستانی که می خوانم، روایت این است که GPU ها به طور تصادفی در هوش مصنوعی عالی هستند، و NVIDIA با فروش تراشه های موجود به بازاری جدید، به طور موقت درآمد بادآورده ای را نصیب خود کرد و به زودی آنها جابه جا خواهند شد. کاتانزارو می گوید توسط استارت آپ ها. اما NVIDIA برای یک دهه در مورد نحوه نزدیک شدن به بازار هوش مصنوعی بسیار استراتژیک بوده است.

پس از یک دهه، آن بازار برای اختلال آماده است. هوش مصنوعی توسط کسبوکارهای بیشتر و بیشتری برای درک اقیانوسهای دادههایی که جمعآوری میکنند استفاده میشود، در حالی که دولتها برای پیشی گرفتن از یکدیگر پول را به تحقیقات یادگیری عمیق میریزند. رقابت بین ایالات متحده و چین به ویژه داغ است. کوستی پریکوس، تحلیلگر Deloitte می گوید هوش مصنوعی به “نوع بعدی ابرقدرت” برای کشورها تبدیل خواهد شد که می توانند بر سر آن رقابت کنند. در عین حال، مدلهای یادگیری عمیق از نظر اندازه و پیچیدگی در حال افزایش هستند و به قدرت محاسباتی بیشتری نیاز دارند.
GPT-3 OpenAI، یک سیستم یادگیری عمیق که میتواند پاراگرافهایی از متن معقول را بنویسد، نمونهای است که از 175 میلیارد پارامتر، متغیرهایی که مدلها را میسازند، تشکیل شده است. تخمین زده می شود که محاسبه آن 4.6 میلیون دلار هزینه داشته باشد و از آن زمان مدل زبان گوگل با 1.6 تریلیون پارامتر در صدر قرار گرفته است. سختافزار کارآمدتر برای بررسی پارامترهای بیشتر و دادههای بیشتر برای افزایش دقت لازم است، اما همچنین برای جلوگیری از تبدیل شدن هوش مصنوعی به یک فاجعه زیستمحیطی – محققان دانمارکی محاسبه کردند که انرژی مورد نیاز برای آموزش GPT-3 میتواند ردپای کربن رانندگی را داشته باشد. 700000 کیلومتر
ما به تراشه های هوش مصنوعی بیشتری نیاز داریم و به تراشه های هوش مصنوعی بهتری نیاز داریم. در حالی که کار اولیه انویدیا به سازنده GPU یک شروع بزرگ داده است، رقبا برای رسیدن به آن رقابت می کنند. گوگل در سال 2015 ساخت تراشه های خود را آغاز کرد. آمازون سال گذشته پس از خرید آزمایشگاه Annapurna در سال 2016، مغز الکسا را به سمت تراشه های Inferentia خود سوق داد. بایدو Kunlun دارد که اخیراً 2 میلیارد دلار ارزش گذاری شده است. کوالکام دارای Cloud AI 100 است. و IBM در حال کار بر روی یک طراحی کم مصرف است. AMD Xilinx را برای کار در مرکز داده هوش مصنوعی خریداری کرد و اینتل در سال 2019 شتاب هوش مصنوعی را به CPUهای مرکز داده Xeon خود اضافه کرد. همچنین دو استارتاپ، Nervana در سال 2016 به قیمت 408 میلیون دلار و Habana Labs در سال 2019 به قیمت 2 میلیارد دلار خریداری کرده است. استارتآپهایی که هنوز راهاندازی نشدهاند، سختافزار خود را منتشر کردهاند، در چند سال گذشته شاهد عرضه یا آزمایش تراشههای هوش مصنوعی توسط شرکتهایی مانند Graphcore، SambaNova، Cerebras، Mythic AI، Blaize و TensTorrent بودهاند.
ما هنوز در روزهای اولیه هوش مصنوعی هستیم. آن گربه ها فقط ده سال پیش محاسبه شده بودند. اکثر این استارت آپ ها چند سال بیشتر ندارند. با توجه به اینکه دستگاههای هوشمند اینترنت اشیاء انقلاب ماشین به ماشین را آغاز میکنند، مجموعه دادههای بیشتری جریان مییابد، همه دیدگاهشان بر یک چیز است: داشتن آینده تراشههای هوش مصنوعی.
یادگیری ماشینی یک حجم کاری محاسباتی است که بر خلاف سایر موارد دیگر نیاز به ریاضیات زیادی با استفاده از ارقام نه چندان دقیق دارد. محاسبات سنتی با کارایی بالا (HPC)، که در آن چندین سیستم برای ساختن ابررایانهها برای پردازش حجمهای کاری پیچیده مانند شبیهسازیهای علمی یا مدلسازی مالی به یکدیگر متصل میشوند، به ریاضیات با دقت بالا نیاز دارد که از اعداد 64 بیتی استفاده میکنند. محاسبات هوش مصنوعی همچنین به زیرساخت محاسباتی عظیم نیاز دارد، اما ریاضیات استفاده شده دقیق تر است، با اعدادی که 16 بیتی یا حتی 8 بیتی هستند – این شبیه به تفاوت بین گرافیک های فوق واقعی و بازی های پیکسلی دهه 80 است. اندرو فلدمن، مدیرعامل استارتآپ تراشههای هوش مصنوعی Cerebras میگوید: «ریاضی بیشتر آسان است، اما تعداد زیادی از آنها وجود دارد.
تراشه هوش مصنوعی هر پردازنده ای است که برای اجرای بارهای کاری یادگیری ماشینی، از طریق چارچوب های برنامه نویسی مانند TensorFlow Google و PyTorch فیس بوک، بهینه شده است. تراشههای هوش مصنوعی لزوماً تمام کارها را هنگام آموزش یا اجرای یک مدل یادگیری عمیق انجام نمیدهند، بلکه بهعنوان شتابدهنده عمل میکنند و بهسرعت از میان شدیدترین حجمهای کاری عبور میکنند. به عنوان مثال، سیستم AI-in-a-box NVIDIA، DGX A100، از هشت پردازنده گرافیکی A100 “Ampere” خود به عنوان شتاب دهنده استفاده می کند، اما همچنین دارای یک CPU 128 هسته ای AMD است.
هوش مصنوعی جدید نیست !
هوش مصنوعی جدید نیست، اما ما قبلاً فاقد قدرت محاسباتی برای امکانپذیر ساختن مدلهای یادگیری عمیق بودیم و محققان را در انتظار سختافزار برای رسیدن به ایدههای خود میگذاشتیم. رودریگو لیانگ، یکی از بنیانگذاران و مدیر عامل شرکت SambaNova، استارت آپ دیگری که تراشه های هوش مصنوعی تولید می کند، می گوید: «GPU ها وارد شدند و درها را باز کردند. در سال 2012، محققی در دانشگاه تورنتو، الکس کریژفسکی، سایر رقبا را در چالش سالانه بینایی کامپیوتر ImageNet قرار داد، که محققان را در مقابل یکدیگر قرار میدهد تا الگوریتمهایی را توسعه دهند که میتواند تصاویر یا اشیاء درون آنها را شناسایی کند. کریژفسکی برای اولین بار از یادگیری عمیق مجهز به پردازندههای گرافیکی برای شکست دادن تلاشهای رمزگذاری شده با دست استفاده کرد. تا سال 2015، تمام نتایج برتر در مسابقات ImageNet از GPU استفاده می کردند.
تحقیقات یادگیری عمیق منفجر شد. فناوری NVIDIA با ارائه 20 برابر یا بیشتر افزایش عملکرد، به قدری خوب عمل کرد که وقتی بنیانگذاران شرکت انگلیسی Graphcore استارتاپ چیپها را راهاندازی کردند، نتوانستند با سرمایهگذاران ملاقاتی داشته باشند. سایمون نولز، یکی از بنیانگذاران و CTO، با یادآوری سفر به کالیفرنیا برای جستجوی بودجه در سال 2015، میگوید: «آنچه از VCs شنیدیم این بود: «هوش مصنوعی چیست؟». چند ماه بعد، در آغاز سال 2016، همه چیز تغییر کرده بود. نولز میگوید: «سپس همه به هوش مصنوعی علاقه داشتند. “با این حال، آنها برای چیپس داغ نبودند.” یک معماری جدید تراشه ضروری به نظر نمی رسید. NVIDIA صنعت را تحت پوشش قرار داده بود.

اما، در ماه مه 2016، گوگل همه چیز را تغییر داد، با چیزی که فلدمن از Cerebras آن را یک «تصمیم استراتژیک ناسازگار» می نامد و اعلام کرد که تراشه های خود را برای برنامه های کاربردی هوش مصنوعی توسعه داده است. اینها واحدهای پردازش تنسور (TPU) نامیده میشوند و برای کار با چارچوب برنامهنویسی یادگیری ماشینی TensorFlow طراحی شدهاند. ناولز میگوید این حرکت سیگنالی را به سرمایهگذاران ارسال کرد که احتمالاً بازاری برای طراحیهای جدید پردازنده وجود دارد. “ناگهان همه VC ها اینطور شدند: آن بریتانیایی های دیوانه کجا هستند؟” او می گوید. از آن زمان، Graphcore 710 میلیون دلار (515 میلیون پوند) جمع آوری کرده است.
رقبای NVIDIA استدلال میکنند که پردازندههای گرافیکی بهجای یادگیری ماشینی برای گرافیک طراحی شدهاند، و اگرچه قابلیتهای پردازشی عظیم آنها به این معناست که بهتر از پردازندهها برای وظایف هوش مصنوعی کار میکنند، اما به دلیل بهینهسازی دقیق و لایههای پیچیده نرمافزار، تسلط آنها بر بازار تنها تا این مدت ادامه داشته است. نایجل تون، یکی از بنیانگذاران و مدیر عامل Graphcore می گوید: «انویدیا در پنهان کردن پیچیدگی یک پردازنده گرافیکی کار خارق العاده ای انجام داده است. این به دلیل کتابخانههای نرمافزاری که ایجاد کردهاند، چارچوبها و بهینهسازیهایی که اجازه میدهند پیچیدگی پنهان شود، کار میکند. این یک کار سنگین سنگین است که NVIDIA در آنجا انجام داده است.”
اما GPU ها را فراموش کنید، بحث ادامه دارد و ممکن است یک تراشه هوش مصنوعی از ابتدا طراحی کنید که معماری کاملاً جدیدی دارد. تعداد زیادی برای انتخاب وجود دارد. TPUهای Google مدارهای مجتمع مخصوص برنامه (ASIC) هستند که برای بارهای کاری خاص طراحی شده اند. Cerebras یک موتور ویفر مقیاس می سازد، یک تراشه غول پیکر که 56 برابر بزرگتر از هر چیپ دیگری است. IBM و BrainChip تراشههای نورومورفیک را با الگوبرداری از مغز انسان میسازند. و Mythic و Graphcore هر دو واحدهای پردازش هوشمند (IPU) را می سازند، اگرچه طراحی آنها متفاوت است. تعداد بیشتری وجود دارد.
اما کاتانزارو استدلال میکند که تراشههای زیاد فقط تغییراتی از شتابدهندههای هوش مصنوعی هستند – نامی که به هر سختافزاری که هوش مصنوعی را تقویت میکند، داده میشود. او میگوید: «ما در مورد GPU یا TPU یا IPU یا هر چیز دیگری صحبت میکنیم، اما مردم بیش از حد به این حروف وابسته میشوند. ما به دلیل سابقه کاری که انجام دادهایم، GPU خود را اینطور مینامیم… اما GPU همیشه در مورد محاسبات سریع بوده است و ماهیت بار کاری که مردم به آن اهمیت میدهند در نوسان است.»
کسی میتونه رقابت کنه؟ NVIDIA بر معیار اصلی، MLPerf، که استاندارد طلایی برای تراشههای یادگیری عمیق است، تسلط دارد، اگرچه معیارها جانوران دشواری هستند. تحلیلگر کارل فروند از Cambrian AI Research اشاره می کند که MLPerf، یک ابزار محک طراحی شده توسط دانشگاهیان و بازیگران صنعت از جمله گوگل، تحت تسلط گوگل و انویدیا است، اما استارتاپ ها معمولاً زحمت تکمیل همه آن را نمی دهند زیرا هزینه های راه اندازی یک سیستم بهتر است در جای دیگری خرج شود.
NVIDIA زحمت میکشد – و سالانه بهترین TPU گوگل را میگیرد. مارک همیلتون، رئیس معماری و مهندسی راه حلها در NVIDIA، میگوید: «گوگل MLPerf را اختراع کرد تا نشان دهد که TPU چقدر خوب است. فقط کمی سریعتر از TPU بودند.”
انویدیا برای اطمینان از برتری در یک نسخه از معیار، یک ابررایانه داخلی را از 36 جعبه DGX به 96 باکس بزرگ ارتقا داد. این نیاز به کابل کشی مجدد کل سیستم داشت. برای انجام سریع این کار، آنها به سادگی کابلها را قطع کردند – که همیلتون میگوید کیت آن حدود یک میلیون دلار ارزش داشت – و تجهیزات جدیدی به آنها فرستاده شد. از DGX: بلوک های نسل فعلی را می توان در گروه های 20 تایی بدون سیم کشی مجدد ترکیب کرد.
وقتی نوبت به معیارها و ابر رایانه ها می رسد، همیشه می توانید تراشه های بیشتری اضافه کنید. اما برای طرف دیگر محاسبات هوش مصنوعی – چیزی به نام استنتاج در لبه – داستان متفاوت است.

انویدیا پیشنهاد 40 میلیارد دلاری
انویدیا در سال 2020 با پیشنهاد 40 میلیارد دلاری برای ARM، طراح تراشه بریتانیایی که معماری 95 درصد گوشیهای هوشمند جهان را در اختیار دارد، توجه جهان را به خود جلب کرد. اما پاسخ کاملاً مثبت نبود. یکی از بنیانگذاران ARM، هرمان هاوزر، که دیگر در این شرکت کار نمی کند اما همچنان سهام خود را حفظ می کند، آن را “فاجعه” نامید که ممکن است بی طرفی ARM را در بازار از بین ببرد. رگولاتورها در سراسر جهان – در اتحادیه اروپا، بریتانیا، چین و ایالات متحده – از نزدیک در حال مطالعه این توافق هستند.
ARM تراشهها را طراحی میکند و مجوز مالکیت معنوی را به شرکتها میدهد تا از آنها استفاده کنند. اگر یک سازنده تراشه هوش مصنوعی به یک CPU برای یک سیستم نیاز داشته باشد، می تواند یک طراحی تراشه را از ARM مجوز دهد و آن را مطابق مشخصات خود بسازد. رقبا نگران هستند که NVIDIA کنترل ARM را محدود کند، اگرچه هوانگ “به صراحت” گفته است که NVIDIA به مدل باز ARM احترام می گذارد. طبق گزارشها، دولت بریتانیا در حال بررسی هرگونه پیامدهای امنیتی ملی است، اگرچه ARM در حال حاضر متعلق به سافتبانک ژاپن است و نگرانیهایی در چین وجود دارد که مالکیت ARM در اختیار یک شرکت آمریکایی میتواند به معنای ممنوعیت صادرات طرحهای آن به شرکتهای چینی در لیست سیاه تحت محدودیتهای موجود باشد.
ARM یکی از طراحان اصلی تراشههایی است که یادگیری عمیق را در دنیای واقعی اعمال میکند – به اصطلاح استنتاج در لبه. این بدان معنی است که معامله می تواند تأثیر زیادی بر شکل بازار داشته باشد. NVIDIA میتواند با پردازندههای گرافیکی و لبههای خود با کمک ARM بر بخش مرکز داده تسلط داشته باشد.
استنتاج در لبه چیست؟ سیستمهای قدرتمند و با کارایی بالا NVIDIA از طریق دادهها به منظور آموزش و به کارگیری مدلها حرکت میکنند، اما یک بار کاری هوش مصنوعی دیگر به نام استنتاج وجود دارد، که کار سبکتر استفاده از یک مدل آموزشدیده برای تفسیر چیزی است – مانند درک یک ماشین بدون راننده دوربینهای آن میبینند، یک اپلیکیشن گوشیهای هوشمند که لبههای صورت شما را پیدا میکند تا گوشهای گربهای را روی سلفیتان بمالد، یا یک مدل تصویربرداری پزشکی که علائم سرطان را در اسکن تشخیص میدهد. به دلیل حجم عظیمی از توان محاسباتی مورد نیاز، آموزش در یک مرکز داده انجام می شود، اما استنتاج را می توان در دو مکان یافت.
اولین مورد نیز در مرکز داده است: وقتی از الکسا یا سیری سؤالی میپرسید، برای رونویسی و پاسخ به سرورهای آمازون و اپل بازگردانده میشود. دومین جایی که استنباط اتفاق میافتد در دستگاههای کاربر نهایی مانند دوربینها، اتومبیلها و گوشیهای هوشمند است – این را محاسبه لبه میگویند. این به قدرت پردازش کمتری نیاز دارد، اما باید سریع باشد (هیچکس نمی خواهد منتظر بماند تا ماشین بدون راننده خود قبل از تصمیم گیری برای ترمز کردن فکر کند).
NVIDIA در حال حاضر بر بخش مرکز داده تسلط دارد. A100 آن از طریق دادهها برای آموزش جابجا میشود، در حالی که استنتاج به سرورهای کوچک کوچکتر مجازیسازی میشود و به 50 بار یا بیشتر استنتاج اجازه میدهد تا در همان زمان روی یک سختافزار اتفاق بیفتند. این برای غولهای فناوری مانند AWS که هوش مصنوعی را به عنوان یک سرویس ارائه میکنند مفید است، زیرا چندین شرکت میتوانند از سختافزار یکسانی بدون خطر نشت اطلاعات استفاده کنند. در لبه، NVIDIA دارای DRIVE برای خودروهای بدون راننده و EGX برای استنتاج در محل است، اما تراشههای کم مصرف تخصص سنتی آن نیستند – اگر تا به حال از لپتاپ بازی استفاده کرده باشید، متوجه شدهاید که باید به برق متصل شود. منظم تر از Chromebook. تراشه های کم مصرف در حوزه ARM هستند، به همین دلیل NVIDIA برای خرید این شرکت 40 میلیارد دلار کاهش داده است.
وقتی صحبت از هوش مصنوعی به میان می آید، تلاش های ARM در دو زمینه متمرکز است. ابتدا، چارچوبهای نرمافزاری را بر روی CPUهای موجود خود نصب میکند. برای بارهای کاری شدیدتر، یک واحد پردازش عصبی (NPU) به نام Ethos ایجاد کرده است تا به عنوان یک شتاب دهنده استفاده شود. رنه هاس، رئیس گروه محصولات IP ARM، میگوید که دستگاههایی که از Ethos-U55 استفاده میکنند باید به زودی وارد بازار شوند، زیرا شرکتهایی که مجوز طراحی را صادر کردهاند قبلاً سیلیکون تولید کردهاند.
نایب رئیس NVIDIA می گوید
با هوش مصنوعی در لبه، دستیارهای صوتی دیگر نیازی به آپلود گفتار در سرورهای AWS یا Apple برای پردازش ندارند، اما می توانند بر اساس هوش محلی پاسخ دهند. هاس میگوید: «این اجازه میدهد کار نزدیک به منبع انجام شود، که از بسیاری جهات از نظر کارایی کمک میکند.
دیوید هوگان، نایب رئیس EMEA در NVIDIA میگوید: «ما برای مدت طولانی درباره اینترنت اشیا صحبت کردهایم، اما این چشمانداز تاکنون محقق نشده است. “این تحول است که در قلب برنامه های ما برای به دست آوردن ARM قرار دارد.”
در حالی که بقیه ما نان موز می پختیم و نتفلیکس می خوردیم، مارک همیلتون، رئیس بخش معماری و مهندسی راه حل ها در انویدیا، بخش زیادی از سال گذشته را صرف ساخت یک ابررایانه 40 میلیون پوندی کرد و کمبودهای ناشی از بیماری همه گیر را برای مونتاژ Cambridge-1 عمدتاً صرف کرد. به موقع. این ساخت توسط سیستم سبک LEGO NVIDIA آسانتر شده است. هشت تراشه A100 قلب سیستم محاسباتی را تشکیل می دهند که DGX نامیده می شود – این همان رابطه بین تراشه اینتل یا AMD است که لپ تاپ شما را اجرا می کند. DGX با قیمت 199000 دلار، یک کامپیوتر با هوش مصنوعی کامل، با حافظه و شبکه و هر چیز دیگری است که به گونه ای طراحی شده است که نسبتاً پلاگین و بازی باشد. Cambridge-1 شامل قفسههایی روی قفسههای جعبههای طلا در مجموعههای از پیش ساخته شده 20 DGX است که به عنوان SuperPod شناخته میشوند.
کمبریج-1 بزرگترین و قدرتمندترین ابرکامپیوتر هوش مصنوعی در بریتانیا و حدود 30مین ابررایانه در جهان خواهد بود (اگرچه این رتبه احتمالاً تغییر خواهد کرد) – اما تنها پنجمین ابر رایانه بزرگ در مجموعه خود انویدیا خواهد بود. Cambridge-1 با استفاده از 80 جعبه DGX A100 در مقابل 560 جعبه Selene که بزرگترین آن است، ساخته شد.
انویدیا Cambridge-1 را تا حدی به دلیل خرید ARM در بریتانیا ساخته است، زیرا خرید به این معنی است که این شرکت در بریتانیا کارمندانی پیدا می کند. در حالی که به طور کلی سریعترین و یا بزرگترین نیست، کمبریج-1 دو بار اول را ادعا میکند. همیلتون آن را اولین ابررایانه بومی ابری در جهان مینامد، زیرا دارای تقسیمبندی شبیه به AWS است که به شرکتها اجازه میدهد از سختافزار مشابه بدون خطر نقض امنیت یا نشت دادهها استفاده کنند. و این به کمبریج-1 اجازه میدهد تا اولین بار خود را داشته باشد: این تنها ابررایانهای است که NVIDIA به روی شرکای خارجی باز میکند و به دانشگاهها و غولهای مراقبتهای بهداشتی AstraZeneca، Oxford Nanopore و GSK اجازه میدهد مدلهای یادگیری عمیق خود را اجرا کنند.
چرا انویدیا ابررایانه های خود را می سازد؟ یک دلیل این است که برای جذب بهترین افراد به اسباب بازی نیاز دارد. در سال 2016، انویدیا یک ابررایانه نداشت و فیسبوک و گوگل بهترین محققان هوش مصنوعی را پیدا کردند. همیلتون می گوید: «این به این دلیل نیست که آنها به آنها پول بیشتری می دهند. به این دلیل است که گوگل و فیسبوک هزاران پردازنده گرافیکی دارند که برای راه اندازی کسب و کار خود از آنها استفاده می کنند و آنها را در دسترس محققان هوش مصنوعی خود قرار می دهند.
اکنون ابرکامپیوتر سلن انویدیا، پس از یکی در ژاپن، یکی در چین و دو مورد متعلق به دولت ایالات متحده، پنجمین ابررایانه بزرگ جهان است. همیلتون میگوید این بدان معناست که اگر محققی هستید که میخواهید به سریعترین سختافزار هوش مصنوعی دسترسی داشته باشید، میتوانید برای چین، ایالات متحده یا NVIDIA کار کنید. چین قصد دارد تا سال 2030 به یک رهبر جهانی در هوش مصنوعی تبدیل شود، در حالی که ایالات متحده می خواهد پیشتازی خود را در این فناوری حفظ کند. از قبل تنش در جبهه هوش مصنوعی وجود داشت، اما جنگ تجاری اخیر بین دو کشور ممکن است آن را به چیزی شبیه به یک مسابقه تسلیحاتی تبدیل کند. به عنوان یک شرکت آمریکایی، NVIDIA به طور کامل از چنین مسائلی اجتناب نمی کند.
محققان در آزمایشگاه 40 نفره Catanzaro هوش مصنوعی را برای استفاده در سیستمهای خود NVIDIA توسعه میدهند، اما این آزمایشگاه همچنین به عنوان یک “تراریوم” برای معماران سیستم عمل میکند تا ببینند مدلهای یادگیری عمیق چگونه ممکن است در آینده کار کنند. کاتانزارو میگوید: «اگر میخواهید تراشهای برای آینده بسازید، میخواهید برای آینده مفید باشد، باید مهارت پیشبینی مهمترین حجم کاری آینده را داشته باشید – از نظر محاسباتی چگونه به نظر میرسند». “اگر خرابش کنید، تراشه اشتباهی می سازید.” طراحی و ساخت تراشه ها سال ها طول می کشد، بنابراین چنین آینده نگری لازم است.
چه اتفاقی میافتد اگر مدلهایی ساخته شوند که دیگر روی پردازندههای گرافیکی کار نکنند، یا حداقل به همین خوبی نباشند؟ دالی انویدیا اعتراف میکند که این یک احتمال است، اما با توجه به اینکه اکثر محققان روی پردازندههای گرافیکی کار میکنند، بعید به نظر میرسد. او میگوید: «قبل از اینکه یک مدل جدید عرضه شود، ما معمولاً در مورد آن شنیدهایم و این فرصت را داشتیم که تایرهای آن را تکان دهیم و مطمئن شویم که روی پردازندههای گرافیکی ما به خوبی کار میکند.
دیگران مخالف هستند – و معتقدند که پردازندههای گرافیکی ممکن است مدلهای یادگیری عمیق را از پتانسیل کامل خود باز دارند. Feldman از Cerebras میگوید: «همه مدلهای خود را به فناوری امروزی خم میکنند. یکی از چیزهایی که ما از آن بسیار خوشحال و هیجان زده هستیم، گروهی از مشتریان هستند که در حال نوشتن مدل های کاملاً جدید هستند. او میگوید امسال سربراس نمونههایی از آنچه «کار غیرممکن GPU» نامیده میشود را نشان میدهد – کارهایی که به سادگی نمیتوان آنها را روی پردازندههای گرافیکی انجام داد.
Graphcore’s Toon میگوید که محققان مدتهاست به او گفتهاند که از سختافزار امروزی عقب ماندهاند. شریک او نولز آن را با Newspeak اورول مقایسه میکند، زبان سادهای که از فکر کردن به افکار پیچیدهتر جلوگیری میکند. تون میگوید: «ایدههایی مانند یادگیری ماشین احتمالی وجود دارد که هنوز به تعویق میافتد، زیرا سختافزارهای امروزی مانند پردازندههای گرافیکی اجازه نمیدهند که به جلو بروند. “مسابقه این است که NVIDIA با چه سرعتی می تواند GPU را توسعه دهد، یا چیزی جدید خواهد بود که این امکان را می دهد؟”
نیل تامپسون، محقق در آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT، متوجه روندی در کنفرانسهای هوش مصنوعی محققان شد که به این موضوع اشاره میکردند که محدودیتهای محاسباتی مدلهای آنها را عقب نگه میدارد، انتخابها و مجموعه دادههای آنها را محدود میکند و برخی را مجبور میکند در کار خود اشتباه کنند زیرا میتوانند اشتباه کنند. هزینه اجرای مجدد یک مدل برای رفع مشکل را ندارید. او میگوید: «این واقعاً گسترده است و اگر بخواهیم آن را همانطور که تاکنون انجام دادهایم تمرین کنیم، از نظر آینده یادگیری عمیق مشکلی بزرگ است.
تامپسون و همکارانش 1058 مقاله هوش مصنوعی را تجزیه و تحلیل کردند و دریافتند که نیازهای محاسباتی یادگیری ماشینی بسیار بیشتر از پیشرفت های سخت افزاری یا کارایی آموزش مدل است. در این مسیر، سیستمها روزی صدها میلیون یا حتی میلیاردها دلار برای آموزش هزینه خواهند داشت – و هزینههای دیگری نیز خواهند داشت. تامپسون میگوید: «مشکل در استفاده از پردازندههای گرافیکی بیشتر این است که هر بار که تعداد پردازندههای گرافیکی را دوبرابر میکنید، هزینه آن را دو برابر میکنید، ردپای محیطی، کربن و آلودگی را دو برابر میکنید.
او معتقد است که راهحلهای سختافزاری به تنهایی – چه از طرف NVIDIA و چه از طرف رقیبها – برای جلوگیری از زمین خوردن نوآوری هوش مصنوعی کافی نخواهد بود. در عوض، ما باید مدل های کارآمدتری بسازیم و از آنچه در حال حاضر داریم استفاده بهتری کنیم. ایده هایی مانند پراکندگی – نادیده گرفتن صفرها در یک مجموعه داده برای صرفه جویی در محاسبات – می تواند کمک کند، همانطور که می تواند روشمندتر در مورد داده ها باشد و فقط آنها را در برابر پارامترهای مرتبط قرار دهد. ایده دیگر تقطیر آنچه از مدلها میآموزیم به معادلات سبکتر است، و تنها بخش مربوط به یک مدل را به جای یک بخش عظیم جهانی اجرا میکند.
بدون چنین تلاش هایی، ما به مراکز داده بزرگتر نیاز خواهیم داشت. اما هوش مصنوعی نباید فقط به کسانی محدود شود که توانایی خرید یک ابر رایانه را دارند. تامپسون میگوید: «دانشگاههایی که قدرت رایانه کمتری دارند، در حال حاضر به نسبت کمتری از آنهایی تبدیل میشوند که کار یادگیری عمیق را انجام میدهند. هنوز افراد زیادی هستند که می توانند در این بازی بازی کنند، اما با افزایش بار محاسباتی تعداد بازیکنان کمتر می شود. و ما قبلاً به نقطه ای رسیده ایم که برخی از افراد کنار گذاشته شده اند.”
هزینهها را میتوان کاهش داد، که ممکن است یکی از راههای استارتآپها برای جلب مشتریان در برابر شرکتهای فعلی باشد. AWS سال گذشته تراشههایی را از آزمایشگاه هابانا به فضای ابری خود اضافه کرد و گفت که طراح ان متعلق به اینتل 40 درصد ارزانتر است. ایتان مدینا، مدیر ارشد بازرگانی در آزمایشگاه هابانا می گوید: «برای اینکه هوش مصنوعی به همه افراد برسد و نه فقط ثروتمندان، واقعاً باید عملکرد قیمت را بهبود بخشید.
هوش مصنوعی در حال حاضر یک مشکل سوگیری دارد و این مشکل با دسترسی نابرابر به سخت افزار تشدید می شود. کیت کالوت، رئیس بخشهای نوظهور NVIDIA میگوید: «این بدان معناست که ما فقط به یک روی سکه نگاه خواهیم کرد. “اگر بخش بزرگی از جمعیت جهان را کنار بگذارید… چگونه میتوانیم چالشها را در همه جای دنیا حل کنیم؟” او به اهداف توسعه پایدار سازمان ملل اشاره می کند: بسیاری از محققان هوش مصنوعی کار خود را به چالش هایی مانند فقر و بحران آب و هوا معطوف می کنند، اما اینها مسائلی هستند که تا حد زیادی بر بازارهای نوظهور تأثیر می گذارند.
چالش های دیگری نیز برای اضافه کردن به این ترکیب وجود دارد. تولید پردازندهها در طول این همهگیری محدود شده است، در حالی که درگیری تجاری سال گذشته بین ایالات متحده و چین نگرانیهایی را ایجاد کرد که کارخانههای تراشههای جهان عمدتاً در آسیا هستند، و اتحادیه اروپا اخیراً متعهد شده است که یک پنجم تراشههای برتر دنیا را تا سال 2030 تولید کند. طراحان تراشه عمدتاً تولید را برون سپاری می کنند – NVIDIA توسط TSMC تایوان ساخته می شود – اگرچه اینتل ریخته گری های خود را دارد. در ماه مارس، اینتل اعلام کرد که قصد دارد دو کارخانه جدید را در ایالات متحده افتتاح کند تا برای اولین بار تراشه هایی برای طراحان خارجی بسازد، که شاید کنترل بیشتری بر تولید به ایالات متحده بدهد.
با غلبه بر این موانع و ادامه تکامل تراشهها، هوش مصنوعی گسترش مییابد تا همه چیز را لمس کند، شبیه به موج اتصالی که شاهد پشتیبانی وایفای و برنامههای اضافه شده به اشیا از توستر تا یخچال بود. اما در آینده، هوشمند فقط به معنای اتصال به اینترنت نیست، بلکه تعبیه شده با هوش مصنوعی است. هاس از ARM می گوید: «این همه جا خواهد بود. “در چند سال آینده در همه برنامه های محاسباتی همه جا حاضر خواهد شد.”
یک ویروس جدید به مودم ها حمله می کند!
چگونه رسانه های اجتماعی به سئو کمک می کنند
0 دیدگاه