نبرد NVIDIA برای تراشه های هوش مصنوعی

پردازنده‌های گرافیکی NVIDIA بر تراشه‌های هوش مصنوعی تسلط دارند. اما تعداد زیادی از استارت‌آپ‌ها می‌گویند معماری جدیدی برای حوزه هوش مصنوعی که به سرعت در حال توسعه است، مورد نیاز است

یک داستان APOCRYPHAL در مورد اینکه چگونه NVIDIA از بازی‌ها و سخت‌افزارهای گرافیکی برای تسلط بر تراشه‌های هوش مصنوعی – و گربه‌ها را در بر می‌گیرد، وجود دارد. در سال 2010، بیل دالی، که اکنون دانشمند ارشد NVIDIA است، در حال صرف صبحانه با همکار سابق دانشگاه استنفورد، دانشمند کامپیوتر اندرو نگ، بود که روی پروژه ای با گوگل کار می کرد. دالی می‌گوید: «او تلاش می‌کرد تا گربه‌ها را در اینترنت پیدا کند – او آن را اینطور بیان نکرد، اما این کاری بود که او انجام می‌داد.

Ng در آزمایشگاه Google X روی پروژه ای کار می کرد تا یک شبکه عصبی بسازد که بتواند به تنهایی یاد بگیرد. به شبکه عصبی ده میلیون ویدیوی یوتیوب نشان داده شد و یاد گرفت که چگونه چهره، بدن و گربه انسان را تشخیص دهد – اما برای انجام دقیق این کار، سیستم به هزاران CPU (واحد پردازش مرکزی) نیاز داشت، یعنی پردازنده‌های اسب کاری که کامپیوترها را تغذیه می‌کنند. دالی می‌گوید: «من گفتم، شرط می‌بندم که می‌توانیم این کار را فقط با چند پردازنده گرافیکی انجام دهیم.» GPU ها (واحدهای پردازش گرافیکی) برای بارهای کاری شدیدتر مانند رندر سه بعدی تخصصی هستند – و این باعث می شود در تقویت هوش مصنوعی بهتر از CPU ها باشند.

دالی برای تحقق آن به برایان کاتانزارو، که اکنون تحقیقات یادگیری عمیق را در NVIDIA رهبری می‌کند، روی آورد. و او – تنها با 12 GPU – ثابت کرد که پردازش موازی ارائه شده توسط GPUها در آموزش مدل تشخیص گربه Ng سریعتر و کارآمدتر از CPUها است.

اما کاتانزارو می‌خواهد بداند که NVIDIA تلاش‌های خود را با هوش مصنوعی فقط به خاطر صبحانه‌های شانسی شروع نکرده است. در واقع، او قبل از پیوستن به انویدیا در سال 2008، زمانی که هنوز دانشجوی مقطع کارشناسی ارشد در برکلی بود، در حال توسعه پردازنده‌های گرافیکی برای هوش مصنوعی بود. او می‌گوید: «موقعیت انویدیا در این بازار تصادفی نیست.

اکنون که NVIDIA بر تراشه‌های هوش مصنوعی تسلط دارد، زمان و چگونگی این همه چیز بی‌اهمیت به نظر می‌رسد. جریان اصلی درآمد NVIDIA که در سال 1993 توسط Jensen Huang تأسیس شد، همچنان گرافیک و بازی است، اما در سال مالی گذشته فروش GPU های آن برای استفاده در مراکز داده به 6.7 میلیارد دلار افزایش یافت. در سال 2019، پردازنده‌های گرافیکی NVIDIA در 97.4 درصد از موارد شتاب‌دهنده هوش مصنوعی – سخت‌افزاری که برای افزایش سرعت پردازش استفاده می‌شود – در چهار ارائه‌دهنده برتر ابری: AWS، Google، Alibaba و Azure مستقر شدند. کارل فروند، تحلیلگر در تحقیقات هوش مصنوعی کامبرین، می گوید: «نزدیک به 100 درصد» بازار را برای آموزش الگوریتم های هوش مصنوعی در اختیار دارد. تقریباً 70 درصد از 500 ابر رایانه برتر از پردازنده‌های گرافیکی آن استفاده می‌کنند. تقریباً تمام نقاط عطف هوش مصنوعی در سخت افزار NVIDIA اتفاق افتاده است. گربه‌یاب یوتیوب Ng، AlphaGo قهرمان بازی‌های رومیزی DeepMind، مدل GPT-3 پیش‌بینی زبان OpenAI همگی بر روی سخت‌افزار NVIDIA اجرا می‌شوند. این زمینی است که محققان هوش مصنوعی روی آن ایستاده اند.

علیرغم این موفقیت، Catanzaro از این پیشنهاد مداوم مبنی بر اینکه NVIDIA کورکورانه به هوش مصنوعی ناشی از بازی برخورد کرده است، آزرده خاطر است. قسم می خورم، تقریباً هر داستانی که می خوانم، روایت این است که GPU ها به طور تصادفی در هوش مصنوعی عالی هستند، و NVIDIA با فروش تراشه های موجود به بازاری جدید، به طور موقت درآمد بادآورده ای را نصیب خود کرد و به زودی آنها جابه جا خواهند شد. کاتانزارو می گوید توسط استارت آپ ها. اما NVIDIA برای یک دهه در مورد نحوه نزدیک شدن به بازار هوش مصنوعی بسیار استراتژیک بوده است.

نبرد NVIDIA برای تراشه های هوش مصنوعی
نبرد NVIDIA برای تراشه های هوش مصنوعی

پس از یک دهه، آن بازار برای اختلال آماده است. هوش مصنوعی توسط کسب‌وکارهای بیشتر و بیشتری برای درک اقیانوس‌های داده‌هایی که جمع‌آوری می‌کنند استفاده می‌شود، در حالی که دولت‌ها برای پیشی گرفتن از یکدیگر پول را به تحقیقات یادگیری عمیق می‌ریزند. رقابت بین ایالات متحده و چین به ویژه داغ است. کوستی پریکوس، تحلیلگر Deloitte می گوید هوش مصنوعی به “نوع بعدی ابرقدرت” برای کشورها تبدیل خواهد شد که می توانند بر سر آن رقابت کنند. در عین حال، مدل‌های یادگیری عمیق از نظر اندازه و پیچیدگی در حال افزایش هستند و به قدرت محاسباتی بیشتری نیاز دارند.

GPT-3 OpenAI، یک سیستم یادگیری عمیق که می‌تواند پاراگراف‌هایی از متن معقول را بنویسد، نمونه‌ای است که از 175 میلیارد پارامتر، متغیرهایی که مدل‌ها را می‌سازند، تشکیل شده است. تخمین زده می شود که محاسبه آن 4.6 میلیون دلار هزینه داشته باشد و از آن زمان مدل زبان گوگل با 1.6 تریلیون پارامتر در صدر قرار گرفته است. سخت‌افزار کارآمدتر برای بررسی پارامترهای بیشتر و داده‌های بیشتر برای افزایش دقت لازم است، اما همچنین برای جلوگیری از تبدیل شدن هوش مصنوعی به یک فاجعه زیست‌محیطی – محققان دانمارکی محاسبه کردند که انرژی مورد نیاز برای آموزش GPT-3 می‌تواند ردپای کربن رانندگی را داشته باشد. 700000 کیلومتر

ما به تراشه های هوش مصنوعی بیشتری نیاز داریم و به تراشه های هوش مصنوعی بهتری نیاز داریم. در حالی که کار اولیه انویدیا به سازنده GPU یک شروع بزرگ داده است، رقبا برای رسیدن به آن رقابت می کنند. گوگل در سال 2015 ساخت تراشه های خود را آغاز کرد. آمازون سال گذشته پس از خرید آزمایشگاه Annapurna در سال 2016، مغز الکسا را به سمت تراشه های Inferentia خود سوق داد. بایدو Kunlun دارد که اخیراً 2 میلیارد دلار ارزش گذاری شده است. کوالکام دارای Cloud AI 100 است. و IBM در حال کار بر روی یک طراحی کم مصرف است. AMD Xilinx را برای کار در مرکز داده هوش مصنوعی خریداری کرد و اینتل در سال 2019 شتاب هوش مصنوعی را به CPUهای مرکز داده Xeon خود اضافه کرد. همچنین دو استارتاپ، Nervana در سال 2016 به قیمت 408 میلیون دلار و Habana Labs در سال 2019 به قیمت 2 میلیارد دلار خریداری کرده است. استارت‌آپ‌هایی که هنوز راه‌اندازی نشده‌اند، سخت‌افزار خود را منتشر کرده‌اند، در چند سال گذشته شاهد عرضه یا آزمایش تراشه‌های هوش مصنوعی توسط شرکت‌هایی مانند Graphcore، SambaNova، Cerebras، Mythic AI، Blaize و TensTorrent بوده‌اند.

ما هنوز در روزهای اولیه هوش مصنوعی هستیم. آن گربه ها فقط ده سال پیش محاسبه شده بودند. اکثر این استارت آپ ها چند سال بیشتر ندارند. با توجه به اینکه دستگاه‌های هوشمند اینترنت اشیاء انقلاب ماشین به ماشین را آغاز می‌کنند، مجموعه داده‌های بیشتری جریان می‌یابد، همه دیدگاه‌شان بر یک چیز است: داشتن آینده تراشه‌های هوش مصنوعی.

یادگیری ماشینی یک حجم کاری محاسباتی است که بر خلاف سایر موارد دیگر نیاز به ریاضیات زیادی با استفاده از ارقام نه چندان دقیق دارد. محاسبات سنتی با کارایی بالا (HPC)، که در آن چندین سیستم برای ساختن ابررایانه‌ها برای پردازش حجم‌های کاری پیچیده مانند شبیه‌سازی‌های علمی یا مدل‌سازی مالی به یکدیگر متصل می‌شوند، به ریاضیات با دقت بالا نیاز دارد که از اعداد 64 بیتی استفاده می‌کنند. محاسبات هوش مصنوعی همچنین به زیرساخت محاسباتی عظیم نیاز دارد، اما ریاضیات استفاده شده دقیق تر است، با اعدادی که 16 بیتی یا حتی 8 بیتی هستند – این شبیه به تفاوت بین گرافیک های فوق واقعی و بازی های پیکسلی دهه 80 است. اندرو فلدمن، مدیرعامل استارت‌آپ تراشه‌های هوش مصنوعی Cerebras می‌گوید: «ریاضی بیشتر آسان است، اما تعداد زیادی از آن‌ها وجود دارد.

تراشه هوش مصنوعی هر پردازنده ای است که برای اجرای بارهای کاری یادگیری ماشینی، از طریق چارچوب های برنامه نویسی مانند TensorFlow Google و PyTorch فیس بوک، بهینه شده است. تراشه‌های هوش مصنوعی لزوماً تمام کارها را هنگام آموزش یا اجرای یک مدل یادگیری عمیق انجام نمی‌دهند، بلکه به‌عنوان شتاب‌دهنده عمل می‌کنند و به‌سرعت از میان شدیدترین حجم‌های کاری عبور می‌کنند. به عنوان مثال، سیستم AI-in-a-box NVIDIA، DGX A100، از هشت پردازنده گرافیکی A100 “Ampere” خود به عنوان شتاب دهنده استفاده می کند، اما همچنین دارای یک CPU 128 هسته ای AMD است.

هوش مصنوعی جدید نیست !

هوش مصنوعی جدید نیست، اما ما قبلاً فاقد قدرت محاسباتی برای امکان‌پذیر ساختن مدل‌های یادگیری عمیق بودیم و محققان را در انتظار سخت‌افزار برای رسیدن به ایده‌های خود می‌گذاشتیم. رودریگو لیانگ، یکی از بنیانگذاران و مدیر عامل شرکت SambaNova، استارت آپ دیگری که تراشه های هوش مصنوعی تولید می کند، می گوید: «GPU ها وارد شدند و درها را باز کردند. در سال 2012، محققی در دانشگاه تورنتو، الکس کریژفسکی، سایر رقبا را در چالش سالانه بینایی کامپیوتر ImageNet قرار داد، که محققان را در مقابل یکدیگر قرار می‌دهد تا الگوریتم‌هایی را توسعه دهند که می‌تواند تصاویر یا اشیاء درون آنها را شناسایی کند. کریژفسکی برای اولین بار از یادگیری عمیق مجهز به پردازنده‌های گرافیکی برای شکست دادن تلاش‌های رمزگذاری شده با دست استفاده کرد. تا سال 2015، تمام نتایج برتر در مسابقات ImageNet از GPU استفاده می کردند.

تحقیقات یادگیری عمیق منفجر شد. فناوری NVIDIA با ارائه 20 برابر یا بیشتر افزایش عملکرد، به قدری خوب عمل کرد که وقتی بنیانگذاران شرکت انگلیسی Graphcore استارتاپ چیپ‌ها را راه‌اندازی کردند، نتوانستند با سرمایه‌گذاران ملاقاتی داشته باشند. سایمون نولز، یکی از بنیانگذاران و CTO، با یادآوری سفر به کالیفرنیا برای جستجوی بودجه در سال 2015، می‌گوید: «آنچه از VCs شنیدیم این بود: «هوش مصنوعی چیست؟». چند ماه بعد، در آغاز سال 2016، همه چیز تغییر کرده بود. نولز می‌گوید: «سپس همه به هوش مصنوعی علاقه داشتند. “با این حال، آنها برای چیپس داغ نبودند.” یک معماری جدید تراشه ضروری به نظر نمی رسید. NVIDIA صنعت را تحت پوشش قرار داده بود.

اما، در ماه مه 2016، گوگل همه چیز را تغییر داد، با چیزی که فلدمن از Cerebras آن را یک «تصمیم استراتژیک ناسازگار» می نامد و اعلام کرد که تراشه های خود را برای برنامه های کاربردی هوش مصنوعی توسعه داده است. اینها واحدهای پردازش تنسور (TPU) نامیده می‌شوند و برای کار با چارچوب برنامه‌نویسی یادگیری ماشینی TensorFlow طراحی شده‌اند. ناولز می‌گوید این حرکت سیگنالی را به سرمایه‌گذاران ارسال کرد که احتمالاً بازاری برای طراحی‌های جدید پردازنده وجود دارد. “ناگهان همه VC ها اینطور شدند: آن بریتانیایی های دیوانه کجا هستند؟” او می گوید. از آن زمان، Graphcore 710 میلیون دلار (515 میلیون پوند) جمع آوری کرده است.

رقبای NVIDIA استدلال می‌کنند که پردازنده‌های گرافیکی به‌جای یادگیری ماشینی برای گرافیک طراحی شده‌اند، و اگرچه قابلیت‌های پردازشی عظیم آن‌ها به این معناست که بهتر از پردازنده‌ها برای وظایف هوش مصنوعی کار می‌کنند، اما به دلیل بهینه‌سازی دقیق و لایه‌های پیچیده نرم‌افزار، تسلط آن‌ها بر بازار تنها تا این مدت ادامه داشته است. نایجل تون، یکی از بنیانگذاران و مدیر عامل Graphcore می گوید: «انویدیا در پنهان کردن پیچیدگی یک پردازنده گرافیکی کار خارق العاده ای انجام داده است. این به دلیل کتابخانه‌های نرم‌افزاری که ایجاد کرده‌اند، چارچوب‌ها و بهینه‌سازی‌هایی که اجازه می‌دهند پیچیدگی پنهان شود، کار می‌کند. این یک کار سنگین سنگین است که NVIDIA در آنجا انجام داده است.”

اما GPU ها را فراموش کنید، بحث ادامه دارد و ممکن است یک تراشه هوش مصنوعی از ابتدا طراحی کنید که معماری کاملاً جدیدی دارد. تعداد زیادی برای انتخاب وجود دارد. TPUهای Google مدارهای مجتمع مخصوص برنامه (ASIC) هستند که برای بارهای کاری خاص طراحی شده اند. Cerebras یک موتور ویفر مقیاس می سازد، یک تراشه غول پیکر که 56 برابر بزرگتر از هر چیپ دیگری است. IBM و BrainChip تراشه‌های نورومورفیک را با الگوبرداری از مغز انسان می‌سازند. و Mythic و Graphcore هر دو واحدهای پردازش هوشمند (IPU) را می سازند، اگرچه طراحی آنها متفاوت است. تعداد بیشتری وجود دارد.

اما کاتانزارو استدلال می‌کند که تراشه‌های زیاد فقط تغییراتی از شتاب‌دهنده‌های هوش مصنوعی هستند – نامی که به هر سخت‌افزاری که هوش مصنوعی را تقویت می‌کند، داده می‌شود. او می‌گوید: «ما در مورد GPU یا TPU یا IPU یا هر چیز دیگری صحبت می‌کنیم، اما مردم بیش از حد به این حروف وابسته می‌شوند. ما به دلیل سابقه کاری که انجام داده‌ایم، GPU خود را اینطور می‌نامیم… اما GPU همیشه در مورد محاسبات سریع بوده است و ماهیت بار کاری که مردم به آن اهمیت می‌دهند در نوسان است.»

کسی میتونه رقابت کنه؟ NVIDIA بر معیار اصلی، MLPerf، که استاندارد طلایی برای تراشه‌های یادگیری عمیق است، تسلط دارد، اگرچه معیارها جانوران دشواری هستند. تحلیلگر کارل فروند از Cambrian AI Research اشاره می کند که MLPerf، یک ابزار محک طراحی شده توسط دانشگاهیان و بازیگران صنعت از جمله گوگل، تحت تسلط گوگل و انویدیا است، اما استارتاپ ها معمولاً زحمت تکمیل همه آن را نمی دهند زیرا هزینه های راه اندازی یک سیستم بهتر است در جای دیگری خرج شود.

NVIDIA زحمت می‌کشد – و سالانه بهترین TPU گوگل را می‌گیرد. مارک همیلتون، رئیس معماری و مهندسی راه حل‌ها در NVIDIA، می‌گوید: «گوگل MLPerf را اختراع کرد تا نشان دهد که TPU چقدر خوب است. فقط کمی سریعتر از TPU بودند.”

انویدیا برای اطمینان از برتری در یک نسخه از معیار، یک ابررایانه داخلی را از 36 جعبه DGX به 96 باکس بزرگ ارتقا داد. این نیاز به کابل کشی مجدد کل سیستم داشت. برای انجام سریع این کار، آنها به سادگی کابل‌ها را قطع کردند – که همیلتون می‌گوید کیت آن حدود یک میلیون دلار ارزش داشت – و تجهیزات جدیدی به آنها فرستاده شد. از DGX: بلوک های نسل فعلی را می توان در گروه های 20 تایی بدون سیم کشی مجدد ترکیب کرد.

وقتی نوبت به معیارها و ابر رایانه ها می رسد، همیشه می توانید تراشه های بیشتری اضافه کنید. اما برای طرف دیگر محاسبات هوش مصنوعی – چیزی به نام استنتاج در لبه – داستان متفاوت است.

یک NVIDIA SuperPOD ک
یک NVIDIA SuperPOD که قفسه‌هایی از آن ابررایانه کمبریج-1 SUN LEE را تشکیل می‌دهد.

انویدیا پیشنهاد 40 میلیارد دلاری

انویدیا در سال 2020 با پیشنهاد 40 میلیارد دلاری برای ARM، طراح تراشه بریتانیایی که معماری 95 درصد گوشی‌های هوشمند جهان را در اختیار دارد، توجه جهان را به خود جلب کرد. اما پاسخ کاملاً مثبت نبود. یکی از بنیانگذاران ARM، هرمان هاوزر، که دیگر در این شرکت کار نمی کند اما همچنان سهام خود را حفظ می کند، آن را “فاجعه” نامید که ممکن است بی طرفی ARM را در بازار از بین ببرد. رگولاتورها در سراسر جهان – در اتحادیه اروپا، بریتانیا، چین و ایالات متحده – از نزدیک در حال مطالعه این توافق هستند.

ARM تراشه‌ها را طراحی می‌کند و مجوز مالکیت معنوی را به شرکت‌ها می‌دهد تا از آن‌ها استفاده کنند. اگر یک سازنده تراشه هوش مصنوعی به یک CPU برای یک سیستم نیاز داشته باشد، می تواند یک طراحی تراشه را از ARM مجوز دهد و آن را مطابق مشخصات خود بسازد. رقبا نگران هستند که NVIDIA کنترل ARM را محدود کند، اگرچه هوانگ “به صراحت” گفته است که NVIDIA به مدل باز ARM احترام می گذارد. طبق گزارش‌ها، دولت بریتانیا در حال بررسی هرگونه پیامدهای امنیتی ملی است، اگرچه ARM در حال حاضر متعلق به سافت‌بانک ژاپن است و نگرانی‌هایی در چین وجود دارد که مالکیت ARM در اختیار یک شرکت آمریکایی می‌تواند به معنای ممنوعیت صادرات طرح‌های آن به شرکت‌های چینی در لیست سیاه تحت محدودیت‌های موجود باشد.

ARM یکی از طراحان اصلی تراشه‌هایی است که یادگیری عمیق را در دنیای واقعی اعمال می‌کند – به اصطلاح استنتاج در لبه. این بدان معنی است که معامله می تواند تأثیر زیادی بر شکل بازار داشته باشد. NVIDIA می‌تواند با پردازنده‌های گرافیکی و لبه‌های خود با کمک ARM بر بخش مرکز داده تسلط داشته باشد.

استنتاج در لبه چیست؟ سیستم‌های قدرتمند و با کارایی بالا NVIDIA از طریق داده‌ها به منظور آموزش و به کارگیری مدل‌ها حرکت می‌کنند، اما یک بار کاری هوش مصنوعی دیگر به نام استنتاج وجود دارد، که کار سبک‌تر استفاده از یک مدل آموزش‌دیده برای تفسیر چیزی است – مانند درک یک ماشین بدون راننده دوربین‌های آن می‌بینند، یک اپلیکیشن گوشی‌های هوشمند که لبه‌های صورت شما را پیدا می‌کند تا گوش‌های گربه‌ای را روی سلفی‌تان بمالد، یا یک مدل تصویربرداری پزشکی که علائم سرطان را در اسکن تشخیص می‌دهد. به دلیل حجم عظیمی از توان محاسباتی مورد نیاز، آموزش در یک مرکز داده انجام می شود، اما استنتاج را می توان در دو مکان یافت.

اولین مورد نیز در مرکز داده است: وقتی از الکسا یا سیری سؤالی می‌پرسید، برای رونویسی و پاسخ به سرورهای آمازون و اپل بازگردانده می‌شود. دومین جایی که استنباط اتفاق می‌افتد در دستگاه‌های کاربر نهایی مانند دوربین‌ها، اتومبیل‌ها و گوشی‌های هوشمند است – این را محاسبه لبه می‌گویند. این به قدرت پردازش کمتری نیاز دارد، اما باید سریع باشد (هیچکس نمی خواهد منتظر بماند تا ماشین بدون راننده خود قبل از تصمیم گیری برای ترمز کردن فکر کند).

NVIDIA در حال حاضر بر بخش مرکز داده تسلط دارد. A100 آن از طریق داده‌ها برای آموزش جابجا می‌شود، در حالی که استنتاج به سرورهای کوچک کوچک‌تر مجازی‌سازی می‌شود و به 50 بار یا بیشتر استنتاج اجازه می‌دهد تا در همان زمان روی یک سخت‌افزار اتفاق بیفتند. این برای غول‌های فناوری مانند AWS که هوش مصنوعی را به عنوان یک سرویس ارائه می‌کنند مفید است، زیرا چندین شرکت می‌توانند از سخت‌افزار یکسانی بدون خطر نشت اطلاعات استفاده کنند. در لبه، NVIDIA دارای DRIVE برای خودروهای بدون راننده و EGX برای استنتاج در محل است، اما تراشه‌های کم مصرف تخصص سنتی آن نیستند – اگر تا به حال از لپ‌تاپ بازی استفاده کرده باشید، متوجه شده‌اید که باید به برق متصل شود. منظم تر از Chromebook. تراشه های کم مصرف در حوزه ARM هستند، به همین دلیل NVIDIA برای خرید این شرکت 40 میلیارد دلار کاهش داده است.

وقتی صحبت از هوش مصنوعی به میان می آید، تلاش های ARM در دو زمینه متمرکز است. ابتدا، چارچوب‌های نرم‌افزاری را بر روی CPUهای موجود خود نصب می‌کند. برای بارهای کاری شدیدتر، یک واحد پردازش عصبی (NPU) به نام Ethos ایجاد کرده است تا به عنوان یک شتاب دهنده استفاده شود. رنه هاس، رئیس گروه محصولات IP ARM، می‌گوید که دستگاه‌هایی که از Ethos-U55 استفاده می‌کنند باید به زودی وارد بازار شوند، زیرا شرکت‌هایی که مجوز طراحی را صادر کرده‌اند قبلاً سیلیکون تولید کرده‌اند.

نایب رئیس NVIDIA می گوید

با هوش مصنوعی در لبه، دستیارهای صوتی دیگر نیازی به آپلود گفتار در سرورهای AWS یا Apple برای پردازش ندارند، اما می توانند بر اساس هوش محلی پاسخ دهند. هاس می‌گوید: «این اجازه می‌دهد کار نزدیک به منبع انجام شود، که از بسیاری جهات از نظر کارایی کمک می‌کند.

دیوید هوگان، نایب رئیس EMEA در NVIDIA می‌گوید: «ما برای مدت طولانی درباره اینترنت اشیا صحبت کرده‌ایم، اما این چشم‌انداز تاکنون محقق نشده است. “این تحول است که در قلب برنامه های ما برای به دست آوردن ARM قرار دارد.”

در حالی که بقیه ما نان موز می پختیم و نتفلیکس می خوردیم، مارک همیلتون، رئیس بخش معماری و مهندسی راه حل ها در انویدیا، بخش زیادی از سال گذشته را صرف ساخت یک ابررایانه 40 میلیون پوندی کرد و کمبودهای ناشی از بیماری همه گیر را برای مونتاژ Cambridge-1 عمدتاً صرف کرد. به موقع. این ساخت توسط سیستم سبک LEGO NVIDIA آسانتر شده است. هشت تراشه A100 قلب سیستم محاسباتی را تشکیل می دهند که DGX نامیده می شود – این همان رابطه بین تراشه اینتل یا AMD است که لپ تاپ شما را اجرا می کند. DGX با قیمت 199000 دلار، یک کامپیوتر با هوش مصنوعی کامل، با حافظه و شبکه و هر چیز دیگری است که به گونه ای طراحی شده است که نسبتاً پلاگین و بازی باشد. Cambridge-1 شامل قفسه‌هایی روی قفسه‌های جعبه‌های طلا در مجموعه‌های از پیش ساخته شده 20 DGX است که به عنوان SuperPod شناخته می‌شوند.

کمبریج-1 بزرگترین و قدرتمندترین ابرکامپیوتر هوش مصنوعی در بریتانیا و حدود 30مین ابررایانه در جهان خواهد بود (اگرچه این رتبه احتمالاً تغییر خواهد کرد) – اما تنها پنجمین ابر رایانه بزرگ در مجموعه خود انویدیا خواهد بود. Cambridge-1 با استفاده از 80 جعبه DGX A100 در مقابل 560 جعبه Selene که بزرگترین آن است، ساخته شد.

انویدیا Cambridge-1 را تا حدی به دلیل خرید ARM در بریتانیا ساخته است، زیرا خرید به این معنی است که این شرکت در بریتانیا کارمندانی پیدا می کند. در حالی که به طور کلی سریع‌ترین و یا بزرگ‌ترین نیست، کمبریج-1 دو بار اول را ادعا می‌کند. همیلتون آن را اولین ابررایانه بومی ابری در جهان می‌نامد، زیرا دارای تقسیم‌بندی شبیه به AWS است که به شرکت‌ها اجازه می‌دهد از سخت‌افزار مشابه بدون خطر نقض امنیت یا نشت داده‌ها استفاده کنند. و این به کمبریج-1 اجازه می‌دهد تا اولین بار خود را داشته باشد: این تنها ابررایانه‌ای است که NVIDIA به روی شرکای خارجی باز می‌کند و به دانشگاه‌ها و غول‌های مراقبت‌های بهداشتی AstraZeneca، Oxford Nanopore و GSK اجازه می‌دهد مدل‌های یادگیری عمیق خود را اجرا کنند.

چرا انویدیا ابررایانه های خود را می سازد؟ یک دلیل این است که برای جذب بهترین افراد به اسباب بازی نیاز دارد. در سال 2016، انویدیا یک ابررایانه نداشت و فیس‌بوک و گوگل بهترین محققان هوش مصنوعی را پیدا کردند. همیلتون می گوید: «این به این دلیل نیست که آنها به آنها پول بیشتری می دهند. به این دلیل است که گوگل و فیسبوک هزاران پردازنده گرافیکی دارند که برای راه اندازی کسب و کار خود از آنها استفاده می کنند و آنها را در دسترس محققان هوش مصنوعی خود قرار می دهند.

اکنون ابرکامپیوتر سلن انویدیا، پس از یکی در ژاپن، یکی در چین و دو مورد متعلق به دولت ایالات متحده، پنجمین ابررایانه بزرگ جهان است. همیلتون می‌گوید این بدان معناست که اگر محققی هستید که می‌خواهید به سریع‌ترین سخت‌افزار هوش مصنوعی دسترسی داشته باشید، می‌توانید برای چین، ایالات متحده یا NVIDIA کار کنید. چین قصد دارد تا سال 2030 به یک رهبر جهانی در هوش مصنوعی تبدیل شود، در حالی که ایالات متحده می خواهد پیشتازی خود را در این فناوری حفظ کند. از قبل تنش در جبهه هوش مصنوعی وجود داشت، اما جنگ تجاری اخیر بین دو کشور ممکن است آن را به چیزی شبیه به یک مسابقه تسلیحاتی تبدیل کند. به عنوان یک شرکت آمریکایی، NVIDIA به طور کامل از چنین مسائلی اجتناب نمی کند.

محققان در آزمایشگاه 40 نفره Catanzaro هوش مصنوعی را برای استفاده در سیستم‌های خود NVIDIA توسعه می‌دهند، اما این آزمایشگاه همچنین به عنوان یک “تراریوم” برای معماران سیستم عمل می‌کند تا ببینند مدل‌های یادگیری عمیق چگونه ممکن است در آینده کار کنند. کاتانزارو می‌گوید: «اگر می‌خواهید تراشه‌ای برای آینده بسازید، می‌خواهید برای آینده مفید باشد، باید مهارت پیش‌بینی مهم‌ترین حجم کاری آینده را داشته باشید – از نظر محاسباتی چگونه به نظر می‌رسند». “اگر خرابش کنید، تراشه اشتباهی می سازید.” طراحی و ساخت تراشه ها سال ها طول می کشد، بنابراین چنین آینده نگری لازم است.

چه اتفاقی می‌افتد اگر مدل‌هایی ساخته شوند که دیگر روی پردازنده‌های گرافیکی کار نکنند، یا حداقل به همین خوبی نباشند؟ دالی انویدیا اعتراف می‌کند که این یک احتمال است، اما با توجه به اینکه اکثر محققان روی پردازنده‌های گرافیکی کار می‌کنند، بعید به نظر می‌رسد. او می‌گوید: «قبل از اینکه یک مدل جدید عرضه شود، ما معمولاً در مورد آن شنیده‌ایم و این فرصت را داشتیم که تایرهای آن را تکان دهیم و مطمئن شویم که روی پردازنده‌های گرافیکی ما به خوبی کار می‌کند.

دیگران مخالف هستند – و معتقدند که پردازنده‌های گرافیکی ممکن است مدل‌های یادگیری عمیق را از پتانسیل کامل خود باز دارند. Feldman از Cerebras می‌گوید: «همه مدل‌های خود را به فناوری امروزی خم می‌کنند. یکی از چیزهایی که ما از آن بسیار خوشحال و هیجان زده هستیم، گروهی از مشتریان هستند که در حال نوشتن مدل های کاملاً جدید هستند. او می‌گوید امسال سربراس نمونه‌هایی از آنچه «کار غیرممکن GPU» نامیده می‌شود را نشان می‌دهد – کارهایی که به سادگی نمی‌توان آن‌ها را روی پردازنده‌های گرافیکی انجام داد.

Graphcore’s Toon می‌گوید که محققان مدت‌هاست به او گفته‌اند که از سخت‌افزار امروزی عقب مانده‌اند. شریک او نولز آن را با Newspeak اورول مقایسه می‌کند، زبان ساده‌ای که از فکر کردن به افکار پیچیده‌تر جلوگیری می‌کند. تون می‌گوید: «ایده‌هایی مانند یادگیری ماشین احتمالی وجود دارد که هنوز به تعویق می‌افتد، زیرا سخت‌افزارهای امروزی مانند پردازنده‌های گرافیکی اجازه نمی‌دهند که به جلو بروند. “مسابقه این است که NVIDIA با چه سرعتی می تواند GPU را توسعه دهد، یا چیزی جدید خواهد بود که این امکان را می دهد؟”

نیل تامپسون، محقق در آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT، متوجه روندی در کنفرانس‌های هوش مصنوعی محققان شد که به این موضوع اشاره می‌کردند که محدودیت‌های محاسباتی مدل‌های آن‌ها را عقب نگه می‌دارد، انتخاب‌ها و مجموعه داده‌های آن‌ها را محدود می‌کند و برخی را مجبور می‌کند در کار خود اشتباه کنند زیرا می‌توانند اشتباه کنند. هزینه اجرای مجدد یک مدل برای رفع مشکل را ندارید. او می‌گوید: «این واقعاً گسترده است و اگر بخواهیم آن را همانطور که تاکنون انجام داده‌ایم تمرین کنیم، از نظر آینده یادگیری عمیق مشکلی بزرگ است.

تامپسون و همکارانش 1058 مقاله هوش مصنوعی را تجزیه و تحلیل کردند و دریافتند که نیازهای محاسباتی یادگیری ماشینی بسیار بیشتر از پیشرفت های سخت افزاری یا کارایی آموزش مدل است. در این مسیر، سیستم‌ها روزی صدها میلیون یا حتی میلیاردها دلار برای آموزش هزینه خواهند داشت – و هزینه‌های دیگری نیز خواهند داشت. تامپسون می‌گوید: «مشکل در استفاده از پردازنده‌های گرافیکی بیشتر این است که هر بار که تعداد پردازنده‌های گرافیکی را دوبرابر می‌کنید، هزینه آن را دو برابر می‌کنید، ردپای محیطی، کربن و آلودگی را دو برابر می‌کنید.

او معتقد است که راه‌حل‌های سخت‌افزاری به تنهایی – چه از طرف NVIDIA و چه از طرف رقیب‌ها – برای جلوگیری از زمین خوردن نوآوری هوش مصنوعی کافی نخواهد بود. در عوض، ما باید مدل های کارآمدتری بسازیم و از آنچه در حال حاضر داریم استفاده بهتری کنیم. ایده هایی مانند پراکندگی – نادیده گرفتن صفرها در یک مجموعه داده برای صرفه جویی در محاسبات – می تواند کمک کند، همانطور که می تواند روشمندتر در مورد داده ها باشد و فقط آنها را در برابر پارامترهای مرتبط قرار دهد. ایده دیگر تقطیر آنچه از مدل‌ها می‌آموزیم به معادلات سبک‌تر است، و تنها بخش مربوط به یک مدل را به جای یک بخش عظیم جهانی اجرا می‌کند.

بدون چنین تلاش هایی، ما به مراکز داده بزرگتر نیاز خواهیم داشت. اما هوش مصنوعی نباید فقط به کسانی محدود شود که توانایی خرید یک ابر رایانه را دارند. تامپسون می‌گوید: «دانشگاه‌هایی که قدرت رایانه کمتری دارند، در حال حاضر به نسبت کمتری از آن‌هایی تبدیل می‌شوند که کار یادگیری عمیق را انجام می‌دهند. هنوز افراد زیادی هستند که می توانند در این بازی بازی کنند، اما با افزایش بار محاسباتی تعداد بازیکنان کمتر می شود. و ما قبلاً به نقطه ای رسیده ایم که برخی از افراد کنار گذاشته شده اند.”

هزینه‌ها را می‌توان کاهش داد، که ممکن است یکی از راه‌های استارت‌آپ‌ها برای جلب مشتریان در برابر شرکت‌های فعلی باشد. AWS سال گذشته تراشه‌هایی را از آزمایشگاه هابانا به فضای ابری خود اضافه کرد و گفت که طراح ان متعلق به اینتل 40 درصد ارزان‌تر است. ایتان مدینا، مدیر ارشد بازرگانی در آزمایشگاه هابانا می گوید: «برای اینکه هوش مصنوعی به همه افراد برسد و نه فقط ثروتمندان، واقعاً باید عملکرد قیمت را بهبود بخشید.

هوش مصنوعی در حال حاضر یک مشکل سوگیری دارد و این مشکل با دسترسی نابرابر به سخت افزار تشدید می شود. کیت کالوت، رئیس بخش‌های نوظهور NVIDIA می‌گوید: «این بدان معناست که ما فقط به یک روی سکه نگاه خواهیم کرد. “اگر بخش بزرگی از جمعیت جهان را کنار بگذارید… چگونه می‌توانیم چالش‌ها را در همه جای دنیا حل کنیم؟” او به اهداف توسعه پایدار سازمان ملل اشاره می کند: بسیاری از محققان هوش مصنوعی کار خود را به چالش هایی مانند فقر و بحران آب و هوا معطوف می کنند، اما اینها مسائلی هستند که تا حد زیادی بر بازارهای نوظهور تأثیر می گذارند.

چالش های دیگری نیز برای اضافه کردن به این ترکیب وجود دارد. تولید پردازنده‌ها در طول این همه‌گیری محدود شده است، در حالی که درگیری تجاری سال گذشته بین ایالات متحده و چین نگرانی‌هایی را ایجاد کرد که کارخانه‌های تراشه‌های جهان عمدتاً در آسیا هستند، و اتحادیه اروپا اخیراً متعهد شده است که یک پنجم تراشه‌های برتر دنیا را تا سال 2030 تولید کند. طراحان تراشه عمدتاً تولید را برون سپاری می کنند – NVIDIA توسط TSMC تایوان ساخته می شود – اگرچه اینتل ریخته گری های خود را دارد. در ماه مارس، اینتل اعلام کرد که قصد دارد دو کارخانه جدید را در ایالات متحده افتتاح کند تا برای اولین بار تراشه هایی برای طراحان خارجی بسازد، که شاید کنترل بیشتری بر تولید به ایالات متحده بدهد.

با غلبه بر این موانع و ادامه تکامل تراشه‌ها، هوش مصنوعی گسترش می‌یابد تا همه چیز را لمس کند، شبیه به موج اتصالی که شاهد پشتیبانی وای‌فای و برنامه‌های اضافه شده به اشیا از توستر تا یخچال بود. اما در آینده، هوشمند فقط به معنای اتصال به اینترنت نیست، بلکه تعبیه شده با هوش مصنوعی است. هاس از ARM می گوید: «این همه جا خواهد بود. “در چند سال آینده در همه برنامه های محاسباتی همه جا حاضر خواهد شد.”

یک ویروس جدید به مودم ها حمله می کند!

لینک های خارجی چیست؟

چگونه رسانه های اجتماعی به سئو کمک می کنند

سئو چیست و چه کمکی به کسب و کار می کند؟

تکنولوژی

نوشته‌های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

چهار × 1 =