مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

OpenAI و مایکروسافت در هوش مصنوعی عمومی با یکدیگر همکاری می‌کنند


حدود یک سال پیش، شرکت مایکروسافت با انتشار خبری اعلام کرد که خواهان سرمایه‌گذاری یک میلیاردی در OpenAI است. هدف از همکاری OpenAI با مایکروسافت، توسعه فناوری‌های جدید برای پلتفرم ابری «Azure»در هوش مصنوعی عمومی مایکروسافت و گسترش قابلیت‌های هوش مصنوعی بزرگ‌مقیاس عنوان شد.

تحقق این هدف به بکارگیری هوش مصنوعی عمومی بستگی دارد. OpenAI نیز به نوبه خود توافق کرد تا بخشی از مالکیت فکری‌اش را در اختیار مایکروسافت بگذارد. به این ترتیب، مایکروسافت می‌تواند اقدام به تجاری‌سازی و فروش آن به شرکایش کرده و مدل‌های هوش مصنوعی را در Azure آموزش داده و به اجرا دربیاورد. در همین راستا، OpenAI در تلاش بوده تا سخت‌افزارهای رایانش نسل بعدی را توسعه دهد.در جریان کنفرانس توسعه‌دهندگان بیلد مایکروسافت در سال ۲۰۲۰، نخستین ثمرۀ همکاریِ میان این دو در قالب یک ابررایانه جدید اعلام شد. بنا به اعلام مایکروسافت، این ابررایانه با همکاری OpenAI در Azure ساخته شده است. شرکت مایکروسافت مدعی شده که این ابررایانه در مقایسه با TOP 500 پنجمین ماشین قدرتمند جهان به شمار می‌آید؛ گفتنی است که پروژه TOP 500 جزئیات پانصد ابررایانه برتر جهان را بررسی می‌کند. بر اساس جدیدترین رتبه‌بندی، ابررایانه «OpenAI» یک رتبه پایین‌تر از Tianhe-2A (متعلق به مرکز ملی ابررایانه چین) و یک رتبه بالاتر از Frontera (متعلق به مرکز رایانه پیشرفته تگزاس) قرار دارد. این رتبه‌بندی نشان می‌دهد که ابررایانه «OpenAI» قادر است بین ۳۸.۷ تا ۱۰۰.۷ کوادریلیون عملیات در هر ثانیه انجام دهد.

«OpenAI» از مدت‌ها پیش اعلام کرده قدرت رایانش خارق‌العاده‌ای برای تحقق اهداف هوش مصنوعی عمومی نیاز است. این پیشرفت به هوش مصنوعی نیز در یادگیری همه فعالیت‌های انسان کمک شایانی خواهد کرد. برخی افراد از قبیل «یوشوآ بنجیو» موسس Mila و «یان لِکان» دانشمند هوش مصنوعی بر این باورند که هوش مصنوعی عمومی نمی‌تواند وجود داشته باشد؛ اما بنیان‌گذاران و حامیان «OpenAI» که از جمله سرشناس‌ترینِ آنها می‌توان به گرِگ بروکمن، ایلیا ساتسکور، ایلان ماسک، راید هافمن، رئیس سابق Y Combinator به نام سَم آلتمن اشاره کرد، معتقد هستند که رایانه‌های قدرتمند می‌توانند در کنار یادگیری تقویتی و سایر روش‌‍‌ها به پیشرفت‌های کم‌نظیری در حوزه هوش مصنوعی دست یابند.

مزایای مدل‌های بزرگ

ماشین «OpenAI» حاوی بیش از ۲۸۵.۰۰۰ پردازنده مرکزی، ۱۰.۰۰۰ کارت گرافیکی و قابلیت اتصال ۴۰۰ گیگابیت بر ثانیه اتصال می‌باشد. این ماشین برای آموزشِ مدل‌های بزرگ هوش مصنوعی طراحی شده است؛ مدل‌هایی که با بررسی میلیاردها صفحه متن از کتاب‌ها، کتابچه‌های راهنما، دروس تاریخ، دستورالعمل‌های منابع انسانی و سایر منابعی که در دسترس عموم قرار دارند، اقدام به یادگیری می‌کند. از جمله این منابع می‌توان به مدل پردازش زبان طبیعیNVIDIA اشاره کرد که ۸.۳ میلیارد پارامتر را در دل خود جای داده است؛ یا حتی متغیرهای قابل تنظیمی که درون مدل تعبیه شده‌اند. مقادیرِ این متغیرها در انجام پیش‌بینی مورد استفاده قرار می‌گیرند. جزئیات منابع دیگر به صورت زیر خلاصه شده است:

  1. Turing NLG شرکت مایکروسافت (دارای ۱۷ میلیارد پارامتر) که پیشرفته‌ترین نتایج را در چند شاخص معیار زبانی به دست می‌آورد؛
  2. چارچوب ربات گفتگوی Blender متعلق به فیس‌بوک (با ۹.۴ میلیارد پارامتر)
  3. و مدل GPT-2 متعلق به «OpenAI» (با بیش از ۱.۵ میلیارد پارامتر) که قادر است متونی در سطح انسان ایجاد کند.

سَم آلتمن، مدیر عامل «OpenAI» اظهار داشت: «هر چه اطلاعات بیشتری در خصوص نیازها و محدودیت‎های مختلف اجزای سازنده ابررایانه‌ها به دست می‌آوریم، این پرسش برجسته‌تر می‌شود: سیستم رویایی مد نظرمان چه شکل و شمایل و چه ویژگی‌هایی خواهد داشت؟ مایکروسافت توانست جامه عمل به این هدف بپوشاند. اکنون شاهد این هستیم که سیستم‌های بزرگ‌مقیاس جزء بسیار مهمی در آموزشِ مدل‌های قدرتمند هستند.»

در هوش مصنوعی عمومی

ابزار پاسخگویی هوشمند Outlook از مدل‌های یادگیری عمیقی استفاده می‌کند که در یادگیری ماشین Azure آموزش دیده‌اند.

یافته‌ها حاکی از آن است که این مدل‌های بزرگ عملکرد بسیار خوبی از خود بر جای می‌گذارند زیرا قادر به درک نکات ظریف زبان، دستور زبان، دانش، مفاهیم و بافت هستند. افزون بر این، سیستم‌های مذکور می‌توانند گفتار را خلاصه کنند، اسناد حقوقی پیچیده را تجزیه و تحلیل نمایند و از GitHub کدنویسی را آغاز کنند. مایکروسافت از مدل‌های تورینگِ خود برای تقویت درک زبان در Bing، نرم‌افزار آفیس، Dynamics و سایر محصولات بهره‌وری‌اش استفاده کرده است. مدل‌ها توانستند در Bing نقش تقویتی مهمی در کپشن‌سازی و پاسخگویی به پرسش‌ها ایفا کنند. این مدل‌ها در نرم‌افزار آفیس هم نقش قابل توجهی در توسعۀ هر چه بیشتر ابزارهای Smart Lookup (جستجوی هوشمند) و Key Insights داشتند. Outlook از این مدل‌ها برای پاسخ‌های پیشنهادی استفاده می‌کند. این مدل‌ها در Dynamics 365 Sales Insights نیز به کمک فروشندگان شتافته‌اند تا تمهیدات مناسبی را با توجه به تعاملات پیشین با مشتریان در نظر بگیرند.

از دیدگاه فنی، مدل‌های بزرگ عملکرد بهتری نسبت به مدل‌های پیشین خود دارند و از قابلیت خود نظارتی بهره می‌برند؛ یعنی قادرند با بررسی روابط میان بخش‌های مختلف داده، برچسب‌ ایجاد کنند. به باور محققان، این کار ما را یک گام به تحقق هوش مصنوعی در سطح انسان نزدیک‌تر می‌کند. این اقدام بر خلاف الگوریتم‌های یادگیری با نظارت است؛ تنظیم این الگوریتم‌ها در اموری که به صنایع، شرکت‌ها و موضوعات خاصی اختصاص دارد، کار را دشوارتر می‌کند. «کِوین اسکات» مسئول فنی شرکت مایکروسافت بیان کرد: «نکته هیجان‌انگیزِ مدل‌های یاد شده این است که کاربردهای گوناگونی در بخش‌های مختلف دارند. این مدل‌ها قادرند صدها فعالیت مهم در حوزه پردازش زبان طبیعی و بینایی رایانه انجام دهند. در صورتی که این قلمروهای مختلف با یکدیگر ادغام شوند، شاهد کاربردهای جدیدی خواهیم بود که پیشتر تصور نمی‌شد.»

بکارگیری هوش مصنوعی در مقیاس بزرگ

مدل‌هایی که در خانواده تورینگ جای می‌گیرند، فاصله زیادی با هوش مصنوعی عمومی دارند؛ مایکروسافت اعلام کرده که در حال استفاده از یک ابررایانه برای بررسی آن دسته از مدل‌های بزرگی است که قادرند به صورت تعمیم یافته از متون، تصاویر و داده‌های ویدئویی یاد بگیرند. OpenAI نیز همین رویه را در پیش گرفته است. همان‌طور که مجله MIT Technology Review در ابتدای سال جاری اعلام کرد، یکی از تیم‌های فعال در OpenAI به نام Foresight در حال انجام آزمایش‌هایی برای بررسی ارتقای قابلیت‌های هوش مصنوعی است. تیم Foresight با حجم عظیمی از داده اقدام به آموزش الگوریتم‌ها می‌کند. بر اساس همین منبع خبری، OpenAI در حال توسعه سیستمی با استفاده از منابع محاسباتی عظیم است که از تصاویر، متون و سایر داده‌های برای کار آموزش کمک می‌گیرد. مدیران ارشد شرکت بر این باورند که این مسیر سرانجام می‌تواند به هوش مصنوعی عمومی ختم شود. بروکمن و آلتمن اعتقاد دارند که هوش مصنوعی عمومی قادر به ارائه عملکردی درخشان در بسیاری از حوزه‌ها خواهد بود. این فناوری خواهد توانست آن دسته از پیوندهای پیچیده‌ای را مورد شناسایی قرار دهد که کارشناسان انسان در بررسی آنها عاجز مانده‌اند. افزون بر این، محققان اظهار داشتند که اگر هوش مصنوعی عمومی با همکاری نزدیک محققان رشته‌های مرتبطی نظیر علوم اجتماعی به کار برده شود، زمینه برای رفع چالش‌های بزرگ در بهداشت و درمان، تغییرات آب و هوا و آموزش و پرورش فراهم خواهد آمد.

این موضوع کماکان در هاله‌ای از ابهام قرار دارد که آیا این ابررایانه جدید توان کافی برای رسیدن به سطح هوش مصنوعی عمومی را دارد یا خیر. بروکمن سال گذشته در مصاحبه با روزنامه «Financial Times» خاطرنشان کرد: «انتظار داریم کل سرمایه یک میلیاردیِ مایکروسافت را تا سال ۲۰۲۵ برای ساخت سیستمی هزینه کنیم که قابلیت اجرای یک مدل هوش مصنوعی به اندازه مغز انسان را داشته باشد.» در سال ۲۰۱۸، محققان OpenAI با انتشار مطالب تحلیلی اعلام کردند که میزان محاسباتِ بکار رفته در بزرگ‌ترین موارد آموزش هوش مصنوعی بیش از ۳۰۰.۰۰۰ برابر افزایش یافته است؛ یعنی هر ۳.۵ ماه دو برابر گردیده است. پس می‌بینیم که سطح عملکرد فراتر از پیش‌بینی قانون مورمی‌باشد. چندی پیش، IBM جزئیات مربوط به رایانه عصبیرا منتشر کرد؛ این رایانه از صدها تراشه برای آموزش هوش مصنوعی استفاده می‌کند. NVIDIA نیز به نوبه خود خبر از انتظار سرور ۵ پِتافلاپی بر پایه کارت گرافیکی A100 Tensor Core خود تحت عنوان A100 داد.

شواهد و قرائن حاکی از آن است که بهبود کارآیی شاید توان جبران نیازهای فزایندۀ محاسبات را داشته باشد. بر اساس یکی از نظرسنجی‌های اخیر OpenAI، میزان محاسبات لازم برای آموزش مدل‌های هوش مصنوعی از سال ۲۰۱۲ هر ۱۶ ماه یک بار تا دو برابر کاهش یافته است. اما این موضوع کماکان جای بحث و بررسی دارد که محاسبه تا چه اندازه در مقایسه با روش‌های الگوریتمی جدید موجب ارتقای سطح عملکرد می‌شود. البته نباید این موضوع را فراموش کرد که OpenAI با منابع اندکی که در اختیار دارد، به بازده هوش مصنوعی بالایی در بازی‌ها و حوزه‌ای تحت عنوان media synthesis دست یافته است. در پلتفرم ابری گوگل، سیستم OpenAI Five توانست بازیکنان حرفه‌ای Dota 2 را با کارت گرافیکی ۲۵۶ Nvidia Tesla P100 و ۱۲۸.۰۰۰ هسته پردازنده شکست دهد؛ کاری که عملاً به ۱۸۰ سال بازی نیاز داشت. شرکت گوگل به تازگی سیستمی را با ۶۴ کارت گرافیکی Nvidia V100 و ۳۲ هسته پردازنده آموزش داد تا مکعب روبیک را با دست رباتیک حل کند. البته باید به این نکته اشاره کرد که میزان موفقیت نسبتاً پایینی داشت. افزون بر این، مدل Jukebox متعلق به OpenAI اقدام به شبیه‌سازی با ۸۹۶ کارت گرافیکی V100 نمود تا در هر سبکی تولید موسیقی کند.

فرصت‌های جدید در بازار

در حال حاضر مشخص نیست که این ابررایانه گامی کوچک یا جهشی بزرگ در هوش مصنوعی عمومی است، اما ابزارهای نرم‌افزاریِ استفاده شده در طراحی آن می‌تواند فرصت‌های بازار جدیدی را برای مایکروسافت فراهم کند. مایکروسافت به واسطه طرح جدیدش در هوش مصنوعی منابع را در دسترس قرار می‌دهد تا مدل‌های بزرگی را در شبکه‌های هوش مصنوعی Azure آموزش دهد. در همین راستا، داده‌های آموزشی به پشته‌هایی تقسیم می‌شوند از آنها برای آموزش چندین مدل در خوشه‌ها استفاده می‌شود. از جمله این منابع می‌توان به نسخه جدید DeepSpeed (یک کتابخانه هوش مصنوعی برای چارچوب یادگیری ماشین PyTorch فیس‌بوک) اشاره کرد که مدل‌ها را با زیرساخت یکسان تا ۱۰ برابر سریع‌تر آموزش می‌دهد. آموزش توزیع شدهدر ONYX در صورتی که با DeepSpeed استفاده شود، این قابلیت را در اختیار مدل‌ها قرار می‌دهد تا سطح عملکرد تا ۱۷ برابر ارتقاء پیدا کند. «کِوین اسکات» مسئول فنی شرکت مایکروسافت در پایان خاطرنشان کرد: «ما با توسعه زیرساخت‌های پیشرفته برای آموزش مدل‌های بزرگ هوش مصنوعی قصد داریم Azure را ارتقاء دهیم. ساخت رایانه‌های بهتر، سیستم‌های توزیع شدۀ بهتر، شبکه‌های بهتر و دیتاسنترهای بهتر در دستور کار ما قرار دارد. این اقدامات به ارتقای سطح عملکرد و انعطاف‌پذیریِ ابر Azure کمک کرده و منجر به صرفه‌جویی در هزینه‌ها خواهد شد.»

منبع: hooshio.com

گام بعدی هوش مصنوعی: استدلال عمیق


گام بعدی هوش مصنوعی برای همه به موضوعی چالش برانگیز تبدیل شده است. هوش مصنوعی در انجام بسیاری از کارها بهتر از انسان عمل می‌کند. پیش‌بینی وضع هوا، تشخیص بیماری و بازی شطرنج از جمله کارهایی است که هوش مصنوعی در انجام آنها عملکردی بهتر از انسان دارد. بی‌تردید هوش مصنوعی در بسیاری از امور به کار گرفته خواهد شد، اما شاید در پاسخ‌گویی به بعضی از پرسش‌ها که مستلزم استدلال عمیق است به گرد پای انسان هم نرسد.
اندازۀ استوانه‌ای که در سمت چپ جسم فلزی قهوه‌ای قرار دارد، چقدر است؟گام بعدی هوش مصنوعیحتی یک کودک شش ساله هم می‌تواند به سادگی به این پرسش پاسخ دهد، اما این قبیل از پرسش‌ها خارج از محدودۀ مدل‌های یادگیری عمیق سنتی هستند.

 

چرا یادگیری عمیق کافی نیست؟

مدل‌های یادگیری عمیق عملکرد خوبی در درک روابط میان خروجی‌ها و ورودی‌ها دارند، اما انتظار نمی‌رود از این سطح برود. چه یادگیری تقویتی باشد چه یادگیری نظارت‌شده، ورودی‌ها و خروجی‌ها به روشنی تعریف می‌شوند و درک آنها برای مدل آسان است. اگر محققان در نظر دارند تا مدل‌های هوش مصنوعی قابلیت تصمیم‌گیری داشته و از عقل سلیم استفاده کنند، باید زمینه را برای گسترش قوه استدلال در آنها فراهم کنند. گام بعدی هوش مصنوعی باید قابلیت تفکر انتزاعی داشته باشد.

استدلال عمیق

استدلال عمیق به حوزه‌ای اطلاق می‌شود که در آن، ماشین‌ها قابلیت درک روابط تلویحی میان مفاهیم مختلف را به دست می‌‍‌آورند. این مثال را در نظر بگیرید: «همه حیوانات آب می‌نوشند. گربه‌ها حیوان هستند.» در این مثال، رابطه تلویحی این است که همه گربه‌ها آب می‌نوشند، اما این برداشت به‌طور صریح ذکر نشده است. انسان‌ها این نوع استدلال منطقی و ارتباط چیزهای مختلف با یکدیگر را به خوبی درک می‌کنند، اما رایانه‌ها که بر اساس قوانین سخت و صریح عمل می‌کنند، به این سادگی این نوع روابط را درک نمی‌کنند.

پس چطور می‌توان رایانه‌ها را به قوه استدلال مجهز کرد؟

در این مقاله، محققان شرکت DeepMind توضیح می‌دهند که چطور توانستند یک مدل یادگیری عمیق را مجاب به پاسخ‌گویی به برخی پرسش‌های دشوار کنند. این مدل توانست با میزان دقت ۹۶ درصد به پرسش‌ها جواب دهد. اقدامات زیر با استفاده از سه شبکه به انجام رسید:

• ۱. یک شبکه حافظه طولانی_کوتاه مدت برای پردازش پرسش
• ۲. شبکه عصبی پیچشیبرای پردازش تصاویر
• ۳. شبکه رابطه برای درک ارتباط میان اشیای مختلف

اکنون می‌خواهیم نقش هر کدام از اجزای فوق را در حل مسئله بررسی کنیم.

پردازش زبان
شبکه‌های LSTM به دلیل قابلیت‌شان در بخاطر سپردن بخش‌های قبلیِ توالی، عملکرد خوبی در درک توالی‌ها دارند. این قابلیت می‌تواند در پاسخ‌گویی به پرسش‌ها و در کل زبان مفید باشد زیرا ابتدایِ جمله می‌تواند معنا یا اهمیت پایان جمله را تحت تاثیر قرار دهد. شبکه‌های حافظه طولانی کوتاه‌مدت مجموعه‌ای از پرسش‌ها را گردآوری کرده و کار را برای RN آسان‌تر می‌کند.

پردازش تصویر
CNN عملکرد درخشانی در شناسایی ویژگی تصاویر دارند. به همین منظور، محققان از CNN برای استخراج انواع مختلف ویژگی تصاویر در قالب بردارهای نقشه ویژگی استفاده کردند. بردارهای نقشه ویژگی اجسام را بهتر و کارآمدتر از پیکسل‌ها به نمایش می‌گذارند و کار را برای RN آسان‌تر می‌کنند.

درک منطقی
به محض اینکه مدل پرسش و تصویر را پردازش کرد، می‌تواند روابط میان اشیاء را در تصویر درک کند. این مدل می‌تواند از آن روابط برای جواب دادن به پرسش مورد نظر استفاده کند. شبکه RN با در نظر گرفتن روابط بالقوه میان جفت اشیاء (مثل استوانه قرمز و مکعب آبی)، یاد بگیرد که در خصوص روابط استنتاج کند. سپس این خروجی‌ها در اختیار شبکه ادراک چندلایه قرار داده می‌شوند. این خروجی‌ها خلاصه شده و به شبکۀ ادراک چندلایه نهایی ارسال می‌شوند تا از پاسخ خروجی گرفته شود.
شاید این فرایند قدری گیج‌کننده باشد. نمودار زیر مراحل مختلف این مدل را نشان می‌دهد.

 

گام بعدی هوش مصنوعی

اگرچه این مدل ساختار نسبتاً ساده‌ای دارد، اما گامی موثر در راستای هوش مصنوعی عمومی است و زمینه را برای ماشین‌ها فراهم می‌کند تا مثل انسان‌ها فکر کنند.

کاربردها

اکنون به برخی از کاربردهای بالقوه مدل‌های یادگیری عمیق در صورت انجامِ استدلال توجه کنید:

۱. اگر عامل‌ها بتوانند نحوه ارتباط بخش‌های مختلف محیط را درک کنند، آنها قادر خواهند بود به شکل هوشمندانه‌تری رفتار کنند.

۲. مدل‌سازی شبکه‌های اجتماعی

۳. حل مسائل انتزاعی

کلام آخر

• استدلال عمیق این فرصت را به هوش مصنوعی می‌دهد تا روابط انتزاعی میان چیزهای مختلف را درک کند.
• امکان تعبیۀ یک ماژول شبکه RN در مدل یادگیری عمیق نیز وجود دارد. با این کار، مدل می‌تواند قابلیت استدلال رابطه‌ای داشته باشد.
• استدلال عمیق ما را یک گام به هوش مصنوعی عمومی نزدیک‌تر می‌کند.

منبع: hooshio.com

فرایادگیری با هوش مصنوعی عمومی


فرایادگیریواژه ای است که برای توصیف فرایند کنترل یادگیری و آگاهی از نحوه یادگیری افراد، مورد استفاده واقع شده و هم‌اکنون نیز توسط متخصصان حوزه یادگیری ماشین استفاده می‌شود.

هوش مصنوعی موفقیت‌های بزرگی در حوزه‌های گوناگون کسب کرده و کاربردهای آن روز به روز در حال گسترش است. اما مسئله‌ای که باید مورد توجه قرار داد این است که آموزشِ مدل‌های شبکه عصبی سنتی به حجم بالایی از داده نیاز دارد. استفاده از این داده‌ها برای به‌روزرسانی‌های تکراری در نمونه‌های برچسب‌دار نیز مسئله مهمی به شمار می‌آید.

می‌خواهیم مثال کلاسیکِ «طبقه‌بندی سگ و گربه» را با هم بررسی کنیم. اگرچه در دو دهه گذشته شاهد ارتقای چشمگیر مدل‌ها و به تبعِ آن افزایش دقت مدل‌ها بوده‌ایم، اما مسائلی که در بالا اشاره شد، کماکان به قوت خود باقی هستند. به همین منظور، هنوز به تعداد بالایی از سگ‌ها و گربه‌های برچسب‌دار نیاز داریم تا دقت مدل را به میزان قابل توجهی افزایش دهیم.فرایادگیری

فرض کنید ناگهان دو حیوان جدید به شما نشان می‌دهند. به راحتی تشخیص می‌دهید که کدام‌یک سگ و کدام‌یک گربه است. یقین داریم که انسان‌های عادی با دقتِ ۱۰۰ درصدی این تفکیک را انجام می‌دهند. چگونه؟ ما در طی سالیان متمادی به شناخت کامل و دقیقی از ساختار بنیادی حیوانات رسیده‌ایم و از چگونگی استخراج ویژگی‌هایی نظیر شکل صورت، مو، دم، ساختار بدن و غیره به خوبی آگاه هستیم.

به طور خلاصه می‌توان گفت که انسان موفق شده تواناییِ «یادگیری برای یادگیری» را در خود تقویت کند. فرایادگیری اساساً بر آن است تا یادگیری برای یادگیری را به واقعیت تبدیل و هوش مصنوعی را با کمترین میزان داده به سناریوهای گوناگون تعمیم دهد.

شاید بگویید که یادگیری انتقال هم دقیقاً همین کار را انجام می‌دهد. این فناوری در جهت درستی گام برداشته است، اما در حال حاضر نمی‌تواند ما را به مقاصد تهایی‌مان هدایت کند. پیشتر نیز در مواردی مشاهده شده که اگر اموری که شبکه بر مبنای آن آموزش دیده از هدف اصلی دور شود، مزایا و منافع شبکه از پیش آموزش‌دیده تا حد زیادی کاهش می‌یابد.

فرایادگیری این پیشنهاد را داده که مسئله یادگیری در دو سطح بررسی شود. سطح اول به اکتساب سریعِ دانش در هر یک از امور جداگانه مربوط می‌شود. سطح اول با سطح دوم رابطه تنگاتنگی داشته و به کمک آن به مسیر درست هدایت می‌شود. استخراج آهسته اطلاعات در سطح دوم انجام می‌شود.

الگوریتم‌های فرایادگیری را می‌توان به سه دسته تقسیم کرد:

#۱ روش‌های مبتنی بر گرادیان کاهشی کلاسیک

هدفی که این دسته از روش‌ها دنبال می‌کنند، استفاده از بروزرسانی‌های گرادیان کاهشی استاندارد برای ساخت شبکه عصبی و تعمیمِ آن برای انواع گوناگونی از دیتاست است. در این روش از چندین دیتاست‌ که هر کدام مثال خودشان را دارند، استفاده می‌شود. فرض کنید مجموعۀ مجموعه‌داده‌ها با p(T) نشان داده می‌شود. مدلِ بکارگرفته شده در این مقاله را نیز تابع fₜₕₑₜₐ در نظر بگیرید. اگر کارمان را با پارامترهای θ آغاز کنیم، می‌دانیم که مدل در تک‌تکِ دیتاست‌ها با به‌روزرسانیِ گرادیان کاهش استاندارد همراه هستند.فرایادگیری

می‌خواهیم مدل‌مان در طیف وسیعی از دیتاست‌ها قابلیت کاربرد داشته باشد. بنابراین، باید مجموع همه خطاهای دیتاست‌های ثبت شده در p(T) با پارامترهای بر‌وزرسانی شده به دست آید. این فرایند به این شکل به زبان ریاضی بیان می‌شود:فرایادگیری

برای هر بسته از پایگاه داده p(T)، ما θ را با توجه به تابع فرا-هدف فوق بوسیله SGD استاندارد بروز رسانی میکنیمفرایادگیری

همان‌طور که ملاحظه می‌کنید،
پس‌انتشارِ meta-loss از طریق گرادیانِ مدل به محاسبۀ مشتقاتِ مشتق نیاز دارد. این کار می‌تواند با
ضرب بردار Hessianو پشتیبانیِ تنسورفلو انجام شود.

#۲ روش‌های نزدیک‌ترین همسایه

در این مجموعه‌ از روش‌ها، واضح است که الگوریتم نزدیک‌ترین همسایه به هیچ آموزشی نیاز ندارد، اما عملکرد آن به متریک انتخاب شده بستگی دارد. این مراحل متشکل از یک مدل تعبیه و یک یادگیرنده پایه است که به ترتیب دامنۀ ورودی را به فضای ویژگی و فضای ویژگی را به متغیرها هدایت می‌کند. هدفِ فرایادگیری این است که مدل تعبیه به گونه‌ای یاد گرفته شود که یادگیرنده به خوبی در همه کارها تعمیم داده شود. در این جا، پیش‌بینیِ فاصله‌محور در تعبیه‌ها نقش اصلی را دارد.
شبکه‌های تطابق برای درک بهتر این سازوکار مثال زده شده است.

شبکه تطابق از یک مجموعه k عنصری از عکس های برچسب زده شده S={(xᵢ ,yᵢ)} که جهت آموزش طبقه بند cₛ(x’) استفاده می‌شوند پشتیبانی می‌کنند. این طبقه بند برای داده آزمایش x’ یک تابع توزیع احتمال بر روی مجموعه خروجی y’ تعریف می‌کند.

طبقه S → cₛ(x’) به صورت P(y’|x’, S′) تعریف می‌شود که در آن P بوسیله یک شبکه عصبی تعیین می‌گردد.
بنابراین، با توجه به مجموعه پشتیبانیِ جدید مثال‌های S′، که جهت
یادگیری یک باره ایاستفاده می‌شود، می‌توان به سادگی از شبکه عصبیِ پارامتریک P برای پیش‌بینیِ برچسب مناسب y’ در هر مثال آزمایشی x’ : P(y’|x’, S′) استفاده کرد. پس این طور بیان می‌شود:

فرایادگیری

فرایادگیری

مکانیزم توجه

روش فوق یادآورِ الگوریتم‌های KDE و Knn است. f و g شبکه‌های عصبی مناسبی برای x و xᵢ هستند.

#۳ روش‌های مدل‌محور با استفاده از فضای کمکی

ما انسان‌ها علاوه بر کارهای پردازشی، نمودارها و سایر ابزارهای نمایشی را برای کاربردهای آتی نگه‌داری می‌کنیم. پس این الگوریتم‌ها سعی کردند با استفاده از چند بلوک حافظه کمکی از این کار تقلید کنند. راهبرد اساسی این است که انواع نمایش‌ها برای قرارگیری در حافظه و چگونگی استفاده بعدی از آنها برای پیش‌بینی یاد گرفته شود. در این روش‌ها، توالی ورودی و برچسب‌های خروجی به صورت متوالی ارائه می‌شوند. در مجموعه‌دادۀ D ={dₜ}={(xₜ, yₜ)}، t نشان‌دهندۀ گام زمانی است.

برچسب خروجی yₜ بلافاصله پس از xₜ به دست نمی‌آید. این انتظار از مدل می‌رود که از برچسب مناسبی برای xₜ(i.e., yₜ) در گام زمانی مشخص خروجی بگیرد. بنابراین، مدل مجبور است نمونه داده‌ها را تا زمانی که برچسب‌های مناسب یافت شوند، در حافظه ذخیره کند. پس از این اقدام، اطلاعات دسته و نمونه برای کاربردهای آتی ذخیره می‌شوند.

با توجه به ماژول حافظه در این اجرای خاص، می‌خواهیم مختصری هم درباره ماشین تورینگ عصبی (NTM) صحبت کنیم. NTM اساساً نوعی ماشین تورینگ مجهز به LSTM است. بازیابی و رمزگذاری حافظه در ماژول حافظه اکسترنال NTM به سرعت انجام می‌شود؛ نمایش‌های برداری در هر گام زمانی در حافظه قرار داده شده یا از آن برداشته می‌شوند. این قابلیت باعث تبدیل شدنِ NTM به گزینه‌ای عالی برای فرایادگیری و پیش‌بینی low-shot شده است چرا که ذخیره‌سازی بلندمدت و کوتاه‌مدت را امکان‌پذیر می‌کند.فرایادگیری

در گام زمانی t، کنترل‌کنندۀ LSTM کلید kₜ را برای دسترسی به ماتریس حافظه Mₜ فراهم می‌کند.فرایادگیری

Softmax برای ایجاد بردارهای خواندن-نوشتن مورد استفاده قرار می‌گیرد.فرایادگیری

فرمول زیر برای بدست آوردن حافظه rₜ استفاده می‌شود.فرایادگیری

این فرمول به عنوان ورودی برای حالت کنترل‌کننده و همچنین دسته‌کننده‌های softmax استفاده می‌شود.

منبع: hooshio.com

هوش مصنوعی عمومی و رقابت؛ برنده کیست؟

هوش مصنوعی عمومی و رقابت؛ برنده کیست؟

هوش مصنوعی عمومی ، یقیناً باعث ایجاد اختلال در جامعه خواهد شد. این فن‌آوری در کل جهان گسترش یافته و همه صنایع را تحت تاثیر قرار می‌دهد، پس باید خود را برای چنین روزی آماده کنیم. هوش مصنوعی جهان را تحت سیطره خود در آورده است، اما نَه به این شکل که بخواهد در نقش ربات‌های قاتل ظاهر شود و همه چیز را به نابودی بکشاند.

هوش مصنوعی در قرن ۲۱ برای تقویت صنایع، کسب‌وکار، آموزش، ساخت‌وساز، مراقبت‌های پزشکی، حمل و نقل و… مورد استفاده قرار می‌گیرد. هوش مصنوعی برای نجات جان انسان‌ها، ساخت و توسعه فن‌آوری‌های نسل بعد و بهتر کردنِ زندگی انسان‌ها نیز استفاده می‌شود و به نظر می‌رسد هوش مصنوعی کاربردهای بی‌انتهایی داشته باشد.

شاید تصور کنید هوش مصنوعی نوعی فن‌آوری علمی – تخیلی آینده‎نگر است که خیلی فراتر از عصر حاضر است، اما این فن‌آوری اکنون نقش قابل‌توجهی در شخصی‌سازیِ تجربه‌های انسان در رسانه‌های اجتماعی یا خودکارسازیِ کارهای ملال‌آور ایفا می‌کند. اگر فکر می‌کنید این نقطه، اوج انقلاب هوش مصنوعی است، دوباره فکر کنید؛ زیرا این هوش مصنوعی که امروز می‌بینید، فقط نوک قله است.

هوش مصنوعی محدود و هوش مصنوعی قوی

پیش از آنکه به این موضوع بپردازیم، بیایید ببینیم چه تعریفی برای هوش مصنوعی ارائه شده است. هوش مصنوعی به قابلیت ماشین برای اندیشیدن و یادگیری اِطلاق می‌شود. هوش مصنوعیِ مورد استفاده در عصر حاضر «هوش مصنوعی محدود» نام دارد؛ منظور از محدود این است که فقط توان انجام یک کار مشخص را دارد؛ نَه هیچ چیز دیگر. سطح بعدی هوش مصنوعی را «هوش مصنوعی قوی» نامیده‌اند. البته از اصطلاح نوین «هوش مصنوعی عمومی » هم استفاده می‌شود.

هوش مصنوعی قوی به مغز فرضیِ ماشینی می‌گویند که قابلیت انجام کارها و درک گفتار در سطحِ شناختی را دارد. این نوع هوش می‌تواند همگام با قابلیت‌های مغز انسان به ایفای نقش بپردازد. به عبارتی، این ماشین پیشرفته رباتی است که می‌تواند مثل ما انسان‌ها همه چیز را احساس کند، عاشق شود و اساساً همان کارهایی را انجام دهد که انسان‌ها در طول روز انجام می‌دهند. سیستم هوش مصنوعی محدود هرگز نمی‌تواند به این سطح از توانایی برسد.

سرمایه‌گذاری در هوش مصنوعی عمومی (AGI)

هوش مصنوعی عمومی فرضی می‌تواند در اقدامی سرنوشت‌ساز تاریخ را دگرگون کند. به همین دلیل است که سرمایه‌گذاران، میلیون‌ها دلار در اختیار شرکت‌ها گذاشته‌اند تا تحقیقات خود را در این زمینه گسترش دهند. کارشناسان به سختی در تلاش‌اند تا به این فن‌آوری تخیلی رنگ واقعیت ببخشند. بر اساس گزارش «Mind Commerce»، پیش‌بینی می‌شود سرمایه‌گذاری در هوش مصنوعی عمومی تا سال ۲۰۲۳ به ۵۰ میلیارد دلار برسد. هم‌اکنون نیز چندین شرکت بزرگ فن‌آوری با برخورداری از گروهی از کارشناسان خبره، مشغول کار و تحقیق درباره این فن‌آوری هستند.

شرکت‌های بزرگ فن‌آوری از قبیل IBM و Baidu شاید به جهش‌های کوانتومی در هوش مصنوعی دست پیدا کنند. با این حال، چهار شرکت ریشه‌دار وجود دارند که گوی سبقت را از شرکت‌های رقیب ربوده‌اند و فاصله‌ چندانی با خط پایان هوش مصنوعی ندارند. جایزه‌ای که پس از پایان این رقابت داده می‌شود، مدال طلا نیست، بلکه بزرگ‌ترین دستاورد هوش مصنوعی تحت عنوان «ابَر هوش» است. اکنون بیایید هر یک از این شرکت‌ها را به طور مختصر بررسی کنیم.

هوش مصنوعی عمومیچهار شرکت برتر هوش مصنوعی

هوش مصنوعی عمومی

۱. Open AI
سال تاسیس: ۲۰۱۵
مرکز: سان‌فرانسیسکو، کالیفرنیا
ماموریت: هوش مصنوعی عمومی، در راستای رفع نیازهای بشر به کار گرفته شود.
هدف: تبدیل شدن به نخستین هوش مصنوعی عمومی؛ نَه برای اینکه به سودآوری حداکثری برسد. هدف اصلی، بهره‌مندیِ برابر کل جهان از این فن‌آوری است.
بنیان‌گذاران: ایلان ماسک، سَم آلتمن و چند نفر دیگر
سرمایه‌گذاران: مایکروسافت – یک میلیارد دلار
آخرین دستاورد: ساخت Open AI Five، تیمی متشکل از ربات هوش مصنوعی که قهرمانان بازی Dota 2 را شکست دادند و رباتی که توانست مکعب روبیک را حل کند.
روشِ استفاده از هوش مصنوعی عمومی: مدل‌های بزرگتر شبکه عصبی

هوش مصنوعی عمومی۲. Deepmind
سال تاسیس: ۲۰۱۰
مرکز: لندن
ماموریت: تحقیق و ساخت سیستم‌های هوش مصنوعی امن که توان حل مسائل را داشته باشند و اکتشافات علمی را پیش ببرند.
هدف: ادغام روش‎های نوین یادگیری ماشین و علوم عصبی برای ساخت الگوریتم‌های یادگیری قوی.
بنیان‌گذاران: دمیس هاسابیس
سرمایه‌گذاران: Founders Fund و Horizons Ventures
آخرین دستاورد: آلفاگو، این سیستم هوش مصنوعی توانست انسان را در بازی Go شکست دهد.
روشِ استفاده از هوش مصنوعی عمومی: علوم عصبی؛ نگاه عمیق به مغز انسان و الهام‌گیری از آن برای ساخت الگوریتم‌های پیچیده

هوش مصنوعی عمومی۳. Google Brain
سال تاسیس: ۲۰۱۱
مرکز: مانتن ویو، کالیفرنیا
ماموریت: هوشمندتر کردن ماشین‌ها و بهبود زندگی انسان‌ها
هدف: ساخت هوش مصنوعی با هوش بچۀ انسان
بنیان‌گذاران: اندرو اِن‌جی و جف دین
سرمایه‌گذاران: شرکت مادر گوگل
آخرین دستاورد: ابداع Transformers و تنسورفلو
روشِ استفاده از هوش مصنوعی عمومی: یادگیری با نظارت و سایر ساختارهای شبکه عصبی

هوش مصنوعی عمومی۴. Facebook A.I. Research
سال تاسیس: ۲۰۱۳
مرکز: –
ماموریت: عرضه پیشرفته‌ترین نسخه هوش مصنوعی
هدف: ساخت هوش مصنوعی انسان‌مانند
بنیان‌گذاران: یان لیکان، پیشگام در حوزه یادگیری عمیق
سرمایه‌گذاران: شرکت مادر فیس‌بوک
آخرین دستاورد: ابداع PyTorch زبان برنامه‌نویسی مشهور و Mask R-CNN الگوریتم بینایی رایانه
روشِ استفاده از هوش مصنوعی عمومی: یادگیری بدون نظارت و خودنظارتی

نگاهی به آیندههوش مصنوعی عمومی

هوش مصنوعی عمومی، یقیناً باعث ایجاد اختلال در جامعه خواهد شد. این فن‌آوری در کل جهان گسترش یافته و همه صنایع را تحت تاثیر قرار می‌دهد، پس باید خود را برای چنین روزی آماده کنیم. اگرچه تصویری خطرناک و خشن از هوش مصنوعی عمومی در اذهان نقش بسته، اما خطر اصلی خود مائیم. ما انسان‌ها کامل نیستیم و به پیامدهای اعمال‌مان توجه نمی‌کنیم. برای مثال، ببینید چگونه با مشکل تغییر آب‌وهوا برخورد می‌کنیم. بخش‌های زیادی از جهان از این مشکل رنج می‌برند، اما انسان‌ها همچنان به این قضیه بی‌اعتنا هستند.

اگرچه هوش مصنوعی عمومی از قابلیتِ ریشه‌کن کردن‌ِ نسل بشر برخوردار است، اما می‌توانیم به کمک آن تحولی عظیم ایجاد کرده و قدرتی بی‌سابقه بدست آوریم. باید جانب احتیاط را در استفاده از این فن‌آوری رعایت کنیم. این فن‌آوری تهدیدات زیادی با خود به همراه دارد و می‌تواند نسل انسان را منقرض کند.

برای اینکه تضمین شود این فن‌آوری برای اهداف خوب و مسالمت‌آمیز استفاده می‌شود و به هیچ عنوان از آن سوءاستفاده نخواهد شد، باید قوانینی را تدوین کنیم و ایمنی سیستم‌های هوش مصنوعی عمومی تضمین شود. اگر متخصصان و محققانی که در ساخت و توسعه هوش مصنوعی عمومی دخالت دارند، قبول مسئولیت کرده و از خطرات این فن‌آوری به خوبی آگاه باشند، امکان ساخت سیستم‌های کارآمد و امنِ هوش مصنوعی عمومی وجود خواهد داشت.

برنامه اجراییهوش مصنوعی عمومی

حالا که به آگاهی خوبی از اثرات و پیامدهای هوش مصنوعی عمومی دست یافته‌اید، سعی کنید اطلاعات بیشتری درباره هوش مصنوعی یاد بگیرید و روش‌های به‌کارگیری این فن‌آوری را در زندگی‌تان بررسی کنید. داشتن مهارت و تواناییِ لازم برای به‌کارگیری هوش مصنوعی در جهان حقیقی، اهمیتی بنیادی دارد؛ فرقی هم نمی‌کند دانشجو باشید یا مدیر عامل یک شرکت بزرگ خرده‌فروشی. توصیه می‌کنیم هنگام یادگیری PyTorch (چارچوب مشهور برای یادگیری ماشین) از زبان برنامه‌نویسی پایتون استفاده کنید. همچنین می‌توانید از JavaScript برای TensorFlow (کتابخانه یادگیری ماشین) استفاده کنید.

اگر مدیر یک کسب‌وکار هستید و می‌خواهید هوش مصنوعی تغییر بزرگی در شرکت‌تان به وجود آورد، می‌توانید با استخدام مهندسان یادگیری ماشین یا متخصصان داده به سرمایه‌گذاری در هوش مصنوعی بپردازید. استفاده از هوش مصنوعی می‌تواند باعث افزایش میزان فروش، ارتقای تجارب مشتریان، خودکارسازیِ فرایندها و تجزیه و تحلیل پیش‌بینی‌گر، شناسایی بزه‌کاری و بسیاری دیگر از کارها شود.

اگر به عنوان یک جوان، رویای ایجاد تغییر در جهان را در سر می‌پرورانید یا هدف‌تان تبدیل شدن به یک کارآفرین برتر است، توصیه می‌کنیم کارتان را با هوش مصنوعی آغاز کنید. مسئله‌ای را که می‌خواهید حل کنید، در نظر گرفته و سپس عنصر هوش مصنوعی را به آن اضافه کنید. برای مثال، اگر خواهان طراحیِ یک برند پوشاک هستید، چرا از هوش مصنوعی برای انجام این کار کمک نمی‌گیرید؟ یا اگر می‌خواهید گام موثری برای درمان بیماری‌های مغزی یا سرطان بردارید، از هوش مصنوعی برای یافتن روش درمانی نوین استفاده کنید. هیچ‌گاه از آزمایش کردن نترسید و از هوش مصنوعی برای فتح غیرممکن‌ها استفاده کنید.

از شما به خاطر مطالعه این مقاله سپاسگزار هستیم و امیدوارم حالا به درک خوبی از هوش مصنوعی رسیده باشید. مطمئنیم اکنون می‌دانید که کدام شرکت‌ها پرچم‌دار این حوزه هستند و تبدیل آن به واقعیت گام‌های موثری برمی‌دارند. می‌خواهیم با نقل قولی از «الیزه یودکوفسکی» نویسنده و محقق هوش مصنوعی این مقاله را به پایان برسانیم: «هر چیزی که زمینه را برای ظهور چیزهایی باهوش‌تر از هوش انسان و در قالب هوش مصنوعی، رابط‌های میان مغز و رایانه یا ارتقای هوش انسان بر پایه علوم عصبی فراهم کند، بیشترین اهمیت را دارد و نمی‌توان از نقش بی‌بدیل‌شان در تغییر جهان چشم‌پوشی کرد.»

منبع: hooshio.com