این هیاهو نشان می دهد که هوش مصنوعی (AI) در حال حاضر در همه جا وجود دارد، اما در واقع فناوری که آن را هدایت می کند هنوز در حال توسعه است. بسیاری از برنامههای هوش مصنوعی با تراشههایی کار میکنند که برای هوش مصنوعی طراحی نشدهاند – در عوض، آنها به CPUهای همه منظوره و GPUهای ساخته شده برای بازیهای ویدیویی متکی هستند. این عدم تطابق منجر به هجوم سرمایهگذاریها – از غولهای فناوری مانند IBM، اینتل و گوگل، و همچنین از استارتآپها و VCها – در طراحی تراشههای جدید که به صراحت برای حجم کاری هوش مصنوعی طراحی شدهاند، شده است.
IBM Research، به نوبه خود، فقط رونمایی از واحد هوش مصنوعی (AIU)، یک نمونه اولیه تراشه تخصصی برای هوش مصنوعی.
برای صرفه جویی در انرژی و منابع، AIU از اهرم استفاده می کند محاسبات تقریبی، تکنیکی که IBM برای تجارت دقت محاسباتی به نفع کارایی توسعه داد. به طور سنتی، محاسبات بر مبنای محاسبات ممیز شناور 64 و 32 بیتی برای ارائه سطحی از دقت است که برای امور مالی، محاسبات علمی و سایر کاربردها که دقت جزئیات مهم است مفید است. با این حال، این سطح از دقت واقعاً برای اکثر برنامه های کاربردی هوش مصنوعی ضروری نیست.
برنز توضیح میدهد: «اگر به ترسیم مسیر یک وسیله نقلیه خودران فکر میکنید، هیچ موقعیت دقیقی در خطی که خودرو باید در آن باشد، وجود ندارد. “تعدادی از مکان ها در خط وجود دارد.”
IBM گفت: “ما در حال اتمام قدرت محاسباتی هستیم. مدل های هوش مصنوعی به طور تصاعدی در حال رشد هستند، اما سخت افزار برای آموزش این غول ها و اجرای آنها بر روی سرورهای ابری یا دستگاه های لبه ای مانند تلفن های هوشمند و حسگرها به سرعت پیشرفت نکرده است.”
همچنین: آیا هوش مصنوعی می تواند به حل مشکلات کلان داده آموزش و پرورش کمک کند؟
برای اطمینان از جهانی بودن این تراشه، IBM بر چیزی بیش از نوآوری های سخت افزاری تمرکز کرده است. IBM Research تاکید زیادی بر روی آن داشته است مدل های پایه، با تیمی بین 400 تا 500 نفر که روی آنها کار می کنند. برخلاف مدلهای هوش مصنوعی که برای یک کار خاص ساخته میشوند، مدلهای پایه بر روی مجموعه وسیعی از دادههای بدون برچسب آموزش داده میشوند و منبعی شبیه به یک پایگاه داده غولپیکر ایجاد میکنند. سپس، هنگامی که به یک مدل برای یک کار خاص نیاز دارید، می توانید مدل پایه را با استفاده از مقدار نسبتاً کمی از داده های برچسب دار دوباره آموزش دهید.
شبکه های عصبی اساساً دقیق نیستند – آنها خروجی با احتمال تولید می کنند. به عنوان مثال، یک برنامه بینایی کامپیوتری ممکن است با اطمینان 98 درصد به شما بگوید که به تصویر یک گربه نگاه می کنید. با این حال، شبکههای عصبی هنوز در ابتدا با محاسباتی با دقت بالا آموزش داده میشدند که انرژی و زمان قابل توجهی مصرف میکردند.
AIU اولین سیستم کامل روی یک تراشه (SoC) از مرکز سخت افزار هوش مصنوعی تحقیقاتی IBM است که به صراحت برای اجرای مدل های یادگیری عمیق هوش مصنوعی سازمانی طراحی شده است.
با پیشرفت فناوری، سرمایه گذاری سازمانی مطمئناً دنبال خواهد شد. طبق گزارش گارتنر، درآمد تراشههای هوش مصنوعی در سال 2021 به بیش از 34 میلیارد دلار رسید و انتظار میرود تا سال 2026 به 86 میلیارد دلار افزایش یابد. علاوه بر این، شرکت تحقیقاتی گفت، کمتر از 3 درصد از سرورهای مرکز داده در سال 2020 شامل شتابدهندههای حجم کار بودند، در حالی که بیش از 15 سرور درصد انتظار می رود تا سال 2026.
AIU یک مدار مجتمع مخصوص برنامه (ASIC) است، اما می توان آن را برای اجرای هر نوع کار یادگیری عمیق برنامه ریزی کرد. این تراشه دارای 32 هسته پردازشی است که با فناوری 5 نانومتری ساخته شده اند و شامل 23 میلیارد ترانزیستور است. چیدمان سادهتر از یک CPU است، که برای ارسال مستقیم دادهها از یک موتور محاسباتی به موتور دیگر طراحی شده است و باعث کارآمدتر انرژی میشود. به گونه ای طراحی شده است که استفاده از آن مانند کارت گرافیک آسان باشد و می توان آن را به هر کامپیوتر یا سروری با اسلات PCIe متصل کرد.
برنز گفت: برای آیبیام، ساخت راهحلهای کامل که بهطور مؤثر جهانی هستند، منطقیتر است، «بهگونهای که بتوانیم آن قابلیتها را در پلتفرمهای محاسباتی مختلف ادغام کنیم و از طیف بسیار بسیار گستردهای از نیازهای هوش مصنوعی سازمانی پشتیبانی کنیم».
همچنین: من یک مولد هنر هوش مصنوعی را آزمایش کردم و این چیزی است که یاد گرفتم

تکنیک محاسباتی تقریبی AIU به آن اجازه می دهد تا از محاسبات ممیز شناور 32 بیتی به فرمت های بیتی که یک چهارم بیشتر اطلاعات را در خود نگه می دارند کاهش یابد. نمای نزدیک از تراشه واحد هوش مصنوعی IBM. تصویر: IBM
IBM استدلال میکند که “اسب محاسبات سنتی” که به عنوان CPU شناخته میشود، قبل از رسیدن به یادگیری عمیق طراحی شده است. در حالی که CPU ها برای برنامه های کاربردی همه منظوره خوب هستند، اما در آموزش و اجرای مدل های یادگیری عمیق که به عملیات موازی هوش مصنوعی نیاز دارند، چندان خوب نیستند.
جف برنز، مدیر محاسبات هوش مصنوعی برای تحقیقات IBM، به ZDNET گفت: «در ذهن ما تردیدی وجود ندارد که هوش مصنوعی برای مدت طولانی و طولانی یک محرک اساسی راهحلهای فناوری اطلاعات خواهد بود. “این قرار است در سراسر چشم انداز محاسباتی، در این زیرساخت ها و راه حل های پیچیده فناوری اطلاعات سازمانی به روشی بسیار گسترده و پراکنده اعمال شود.”
با استفاده از این رویکرد، IBM قصد دارد با عمودهای مختلف و موارد مختلف استفاده از هوش مصنوعی مقابله کند. تعداد انگشت شماری دامنه وجود دارد که شرکت در حال ساخت مدل های پایه برای آن ها است – این موارد کاربرد حوزه هایی مانند شیمی و داده های سری زمانی را پوشش می دهند. دادههای سری زمانی، که صرفاً به دادههایی که در فواصل زمانی منظم جمعآوری میشوند، اشاره میکنند، برای شرکتهای صنعتی که نیاز به مشاهده نحوه عملکرد تجهیزات خود دارند، حیاتی است. پس از ساخت مدل های پایه برای تعداد انگشت شماری از مناطق کلیدی، IBM می تواند پیشنهادات خاص تر و عمودی را توسعه دهد. تیم همچنین اطمینان حاصل کرده است که نرم افزار AIU کاملاً با پشته نرم افزار Red Hat متعلق به IBM سازگار است.
منبع: https://www.zdnet.com/article/ai-is-running-out-of-computing-power-ibm-says-the-answer-is-this-new-chip/#ftag=RSSbaffb68