مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

چرا یادگیری ماشین به کابوس تبدیل شده؟


فرض کنید یکی از مهندسان یادگیری ماشین شرکت آمازون هستید. تیمتان به تازگی یک مدل قیمت‌گذاری (RNN) جدید منتشر کرده تا فرایند قیمت‌گذاری بر اساس نوع خرید افراد، به صورت خودکار انجام شود. شما و همکاران‌تان زحمات زیادی کشیده و بارها این مدل را آزمایش کرده‌اید. حالا تلاش دو ساله شما به بار نشسته و پیش‌بینی می‌شود سالیانه یک میلیون دلار سودآوری داشته باشد. این موفقیت، تا حدی شما را به وجد آورده که می‌خواهید تعطیلات را در مکانی مجلل و گران‎قیمت جشن بگیرید. اما در راه سفر به باهاماس، خبر بدی دریافت می‌کنید. مدل یادگیری ماشین‌تان دچار سوءعملکرد شده و قیمت‌گذاری کالاها را اشتباه انجام داده است. هر کاری از دست‌تان برمی‌آید انجام می‌دهید تا مشکل را حل کنید، اما خیلی دیر شده و سیستم کالاها را تحویل داده است. مدل یادگیری ماشین شما، به شرکت ۳ میلیون دلار ضرر زده است.روز بعد، با تمام قوا تصمیم به رفع مشکل می‌گیرید و مجدداً مدل را آزمایش می‌کنید. به نظر نمی‌رسد مشکل خاصی وجود داشته باشد. آیا توزیع قیمت تغییر یافته؟ آیا فرایند آماده‌سازی داده دچار مشکل شده؟ کیفیت داده پایین آمده؟ از تمام توان ذهن‌تان بهره می‌گیرید تا علت مشکلات را پیدا کنید، اما به هیچ سرنخی نمی‌رسید. بنابراین، تصمیم می‌گیرید جریان سرازیری داده‌ها از هر ماشین‌های مجازی را و فایل‌های مختلف config تفکیک کرده، مدل را از نو بسازید و آزمایش‌ها را یک به یک انجام دهید. در فرایند انجام این کارها، یادتان می‌رود نسخه‌ها را به‌روزرسانی کنید و سرانجام، پس از چند شب بی‌خوابی مشکلات را حل می‌کنید.

به هزینه تصمیمات مصلحت‌آمیز، بدهی فنیگفته می‌شود که در مدت اجرای کُد گرفته می‌شوند. دلیل این تصمیم، متوسل شدن به مسیرهای میانبری است که می‌تواند در انتشار اولیه نرم‌افزارها و بازاریابی سریع، سود کوتاه‌مدت به همراه داشته باشد. «وارد کانینگهام» در سال ۱۹۹۲ این اصطلاح را ابداع کرد تا نیاز سهامدار به ریفکتور (refactor) را توضیح دهد. این اصطلاح در صنعت توسعه نرم‌افزار به کار برده می‌شود و به این معناست که توسعه‌دهنده به جای صرف زمان زیاد و یافتن بهترین راه حل در طول فرایند کدنویسی، از راه‌حل فوری و آسانی به منظور حل موقت یک مسئله استفاده ‌کند؛ در عوض متعهد می‌شود زمانی را در آینده برای یافتن راه‌حل اساسی و کاربردی اختصاص دهد.
به‌طور مشابه، در هوش مصنوعی و یادگیری ماشین نیز به افزایش بدهی فنی تمایل داریم و برای حل مسائل، استفاده از مسیرهای میانبر و کوتاه را در دستور کار خود قرار می‌دهیم. اگر برای کارمان ضرب‌الاجل فوری تعیین کرده‌ باشند، به‌کارگیری این نوع راه‌حل‌ها را امری مناسب و ضروری می‌دانیم. اما گاهی این اقدامات هزینه‌های سنگینی به بار می‌آورد. لزوماً همه بدهی‌ها به ضرر ما تمام نمی‌شوند، اما بدهی‌های پرداخت‌نشده می‌توانند بار سنگینی روی دوش‌مان بگذارند.

سیستم یادگیری ماشین ناپایدارمشکلات یادگیری ماشین

سیستم قیمت‌گذاری را تصور کنید که از سیستم «مدیریت رابطه مشتری» یا «CRM» برای پیاده‌سازی استراتژی قیمت‌گذاری استفاده می‌کند. کیفیت این سیستم قیمت‌گذاری تا حد زیادی به داده‌هایی بستگی دارد که از سیستم CRM به دست می‌آیند. بنابراین، نادیده گرفتن ویژگی‌ها می‌تواند تمامی نتایج را در یادگیری ماشین دچار اختلال کند. حالا فرض کنید این سیستم با ویژگی‌های بسیار زیادی سروکار دارد. در این شرایط، مدل یادگیری ماشین شما در بهترین حالت شکننده و ناپایدار عمل خواهد کرد و در بدترین حالت نیز انتظار می‌رود جریان سرازیری داده با مشکل جدی روبه‌رو شود.
این مسئله در شرکت‌های نوپای هوش مصنوعی به یک هنجار تبدیل شده، چرا که آن‌ها سرعت‌عمل بالایی برای آماده‌سازی محصولات و ارائه به سهام‌داران خود نشان می‌دهند. یکی از همکاران ما در یک شرکت نوپای هوش مصنوعی اعلام کرد که هیچ‌گاه از ابزارهای مدیریت «Dec Ops»، مشکل‌یاب (Jira) و «Git» برای توسعه سیستم‌های یادگیری ماشین خود استفاده نکرده‌اند. این مسئله برای ما خیلی شگفت‌آور بود، چرا که بسیاری از شرکت‌های دیگر نیز بدون مدیریت مناسب بدهی فنی و ابزارهای «Dec Ops» وارد حوزه یادگیری ماشین و هوش مصنوعی می‌شوند. «Dec Ops» در مهندسی نرم‌افزار اهمیت فراوانی دارد، اما «MLOPs» برای ابزارهای یادگیری ماشین جدایی‌ناپذیر است.

چهار مشکل بزرگ در یادگیری ماشینیمشکلات یادگیری ماشین

۱. درهم‌تنیدگی

سیستم‌های یادگیری ماشین (ML) به ماشین‌هایی گفته می‌شود که با داده سروکار دارند. فرض کنید مدل قیمت‌گذاریِ شما عملکرد بسیار خوبی در قیمت‌گذاری همۀ محصولات داشته باشد، به جز جاروبرقی و شما با افزایش حساسیت قیمت‌گذاری وسایلِ مخصوص تمیزکاری، جاروبرقی را قیمت‌گذاری کرده‌اید. بعد متوجه می‌شوید این قیمت‌گذاری با قیمت ماشین ظرفشویی همخوانی ندارد. شیوه توزیع قیمت دستگاه‌های جاروبرقی قابل کاربرد در توزیع قیمت دستگاه شستشوی ظرف نیست. حالا باید قانون جدیدی وضع کنید که شاید سایر کالاها و محصولات را تحت‌تاثیر قرار دهد. شما به درهم‌تنیدگیِ داده‌ها و درون‌بینی پی می‌برید.

۲. خطوط لوله پیچیده

سیستم‌های هوش مصنوعی و یادگیری ماشین از خطوط لوله گردشکار بسیار متفاوتی تشکیل شده‌اند که مسئول انجام کارهای پیچیده‌ای هستند. سیستم یادگیر شما بوسیله تعدا زیادی مهندس ساخته خواهند شد و این سیستم‌ها با منابع داده‌ای و تعداد زیادی از سیستم‌های دیگر پیوند دارند.
باید کارهای زیادی را در خطوط لوله مناسبِ یادگیری ماشین طراحی کرد. از جمله این کارها می‌توان به تولید داده، ETL، تصدیق داده‌ها، نظارت بر عملکرد و… اشاره کرد. مدلِ شما به زودی به سطح بالایی از پیچیدگی می‌رسد که نداشتن عملیات استاندارد و ابزارهای مناسب باعث می‌شود برای اِعمال تغییرات ساده در سیستم‌های مختلف، به چندین ساعت زمان نیاز داشته باشید. پس خطوط لوله پیچیده باعث کُند شدن فعالیت‌های مهندسیِ شما می‌شود که اگر از شیوه برخورد با این وضعیت درک خوبی نداشته باشید، باید برای اِعمال تغییرات ساده، چندین ساعت زمان صرف کنید.

۳. حلقه‌های بازخورد پنهان

سیستم‌های حقیقی بر داده‌های ما تاثیر می‌گذارند. فرض کنید نماینده فروش‌تان یک کمپین بازاریابی راه انداخته و می‌خواهد کودکان را در سیستم CRM بگنجاند که مدل قیمت‌گذاری شما از این سیستم استفاده کرده است. پیش‎فرض مدل یادگیری ماشین این است که طیف وسیعی از مشتریان، مایل به خرید اسباب‌بازی‌ هستند. در نتیجه، مدل یادگیری ماشین قیمت اسباب‌بازی‌ها را افزایش داده و تخفیف بالایی برای کالاهای گِران در نظر می‌گیرد. با این حال، مدل قیمت‌گذاری رقیب‌تان با مشاهده افزایش قیمت کالاهای شما اقدام به بالا بردن سرسام‌آور قیمت اسباب‌بازی‌ها می‌کند. سیستم شما این رویه را در پیش گرفته و چنین چرخه‌ای را به وجود آورده است. به این ترتیب حلقه‌های بازخورد پنهان باعث ایجاد اختلال در سیستم یادگیری ماشین شما شده است.

۴. وابستگی شکننده به داده

فرض کنید مدل قیمت‌گذاری شما بر پایه جنسیت مشتریان‌تان استوار است. اگر مردی به دنبال خرید محصولات آرایشی باشد، به احتمال زیاد آن را به همسر یا نامزدش هدیه خواهد داد. در این شرایط، او مایل است هزینه زیادی در قبال آن بپردازد. یادگیری ماشین شما آماده است تا بر اساس جنسیت، اقدام به قیمت‌گذاری کند. با این وجود، نماینده کسب‌و‌کارتان یک برچسب با عنوان «جنسیت» در CRM اضافه می‌کند. اگر سیستم یادگیری ماشینی شما عناوینی به غیر از «مونث» یا «مذکر» ببیند، دچار اختلال خواهد شد؟ پس حالا مدل قیمت‌گذاریِ لوازم آرایشی را چطور انجام می‌دهد؟ این احتمال وجود دارد که سیستم با به‌روزرسانیِ سیستم‌های بالادستی، کارآیی خود را از دست بدهد.

پرداخت بدهی‌های فنی یادگیری ماشینیمشکلات یادگیری ماشین

بدهی فنی دردسرهای زیادی دارد. هنگامی که به عنوان مهندس داده در «Visa» و گوگل مشغول به کار بودم، می‌بایست از وجود یک خط لوله قابل‌اطمینان استفاده می‌کردم که از شفافیت بالایی برخوردار باشد. پس به نوعی عملیات استاندارد نیاز داشتم تا جنبه‌های فنی و داده‌ایِ یادگیری ماشین را پوشش دهد. در ضمن، می‌بایست از عدم کاهش کیفیت در طی زمان اطمینان حاصل می‌کردم. سه راهکار برای کاهش بدهی فنی «MLOps» وجود دارد که در زیر اشاره خواهیم کرد:

۱. کدها و داده‌ها را آزمایش کنید.
آزمایش کردن یکی از مهم‌ترین و ناخوشایندترین کارها در بخش فن‌آوری است. هدف از این کار، محدودسازی و کاهش بدهی فنی و اطمینان حاصل کردن از کیفیت تولید یادگیری ماشین است. ما در «DevOps» دو نوع آزمایش را یاد گرفتیم: آزمایش واحد (یعنی آزمایش کردن یک کارکرد) و آزمایش یکپارچگی (یعنی آزمایش کردن کارکردهای یکپارچه). با این حال، در «MLOps» نیاز به راه‌اندازی فرایند canary داریم تا کیفیت خط لوله یادگیری ماشین را آزمایش کنیم.

۲. آموزش، آزمایش و سازگاری مقادیر.
وقتی مشغول آموزشِ مدل‌هایتان هستید، از داده‌های log استفاده می‌کنید. با این حال، در فرایند تولید باید با داده‌های زنده سروکار داشته باشید که شاید بنا به مسائل زیادی از قبیل سری زمانی، کیفیت دوربین (عکس)، زبان و… به مقادیر متفاوتی دست پیدا کنید. بنابراین، همواره باید حواس‌تان به هر دو نوع داده مذکور باشد تا کیفیت تضمین شود.

۳. به صورت محافظه‌کارانه امتیاز دهید.
باید به هر مرحله از آزمایش مدل یادگیری ماشین خود امتیاز دهید. امتیازهای سلامت خط لوله را در چهار بخش مختلف به کار ببرید:

  • زیرساخت یادگیری ماشین: باید کیفیت جریان داده‌های پایین‌رو و بالارو آزمایش شود.
  • توسعه مدل یادگیری ماشین: باید از طریق آزمایش مطمئن شویم که مدل حاوی ویژگی‌های نامناسب نیست.
  • ویژگی‌ها و نمونه‌گیری: باید از طریق آزمایش مطمئن شویم که توزیع ویژگی‌ها با انتظارات‌مان همخوانی دارد.
  • اجرای سیستم‌های یادگیری ماشین: باید کیفیت کد‌ها و داده‌ها را بسنجیم. کلیه این مراحل برای تضمین کارآییِ مدل اهمیت زیادی دارند.

مقابله با بدهی فنی مستلزم این است که شناخت خوبی از خط لوله یادگیری ماشین در چرخۀ حیات آن به‌دست آورید. بنابراین، باید توجه ویژه‌ای به نمونه داده‌ها، مدل‌سازی، آزمایش و سرانجام به‌کارگیریِ مدل داشته باشید. اگر تمامی این مراحل را به درستی انجام دهید، قادر هستید مدل‌تان را به سرعت توسعه دهید، به شیوه پیش‌بینی‌شده اجرا کنید و خدمات خوبی برای مشتریان خود ارائه دهید.

منبع: hooshio.com

گذشته، حال و آینده هوش مصنوعی


الگوریتم‌های ابَرهوشمند تمامی مشاغل را تصاحب نخواهند کرد، اما روند یادگیری آن‌ها سریع‌تر از هر زمان دیگری است. این الگوریتم‌ها از تشخیص بیماری گرفته تا کارهای تبلیغاتی مورد استفاده قرار می‌گیرند.
این تصور که الگوریتم‌های ابرهوشمند تمامی مشاغل را تصاحب کرده و به طور کامل جای انسان را اِشغال خواهند کرد، اشتباه است؛ اما اخیراً شاهد هوشمندتر شدنِ نرم‌افزارها هستیم. شما می‌توانید به پاس این پیشرفت، حین مکالمه تصویری با دوستان خود از شکلک‌های مختلف برای چهره خود استفاده کنید. همچنین می‌توانید از گوینده هوشمندتان بخواهید دستمال کاغذی بیشتری سفارش دهد.
سرمایه‌گذاری‌های عظیم شرکت‌های فن‌آوری در هوش مصنوعی، باعث تغییر زندگی و ابزارهای الکترونیکی ما شده است. انتظار می‌رود آینده انسان به شدت وابسته به هوش مصنوعی باشد. پیشرفت‌های حوزه «یادگیری ماشین» به رشد هوش مصنوعی کمک کرده است. در یادگیری ماشین، رایانه‌ها آموزش داده می‌شوند تا کارها را بر اساس نمونه‌ها انجام دهند؛ نَه اینکه صرفاً به برنامه‌نویسی توسط انسان مُتکی باشند.
روشِ موسوم به یادگیری عمیق باعث تقویت قابل‌توجه یادگیری عمیق شده است. شما می‌توانید از «لی سِدول» دارنده ۱۸ عنوان بین‌المللی در بازی پیچیدۀ «Go» بخواهید تا در این خصوص با شما صحبت کند. نرم‌افزاری به نام «آلفاگو» در سال ۲۰۱۶ این قهرمان بین‌المللی را شکست داد.
نتیجۀ قدرتمندتر شدن هوش مصنوعی عمدتاً در تولید ابزارهای الکترونیکی جدید، تجربه‌هایی مثل گوینده‌های هوشمند و یا قابلیت باز کردن قفل گوشی‌های آیفون با فن‌آوری تشخیص چهره متبلور می‌شود. اما هوش مصنوعی سایر بخش‌های زندگی انسان را نیز تحت تاثیر قرار داده است. مراقبت‌های پزشکی یکی از این بخش‌هاست. بیمارستان‌های هند در حال آزمایشِ نرم‌افزاری هستند که عکس شبکیه افراد را به منظور یافتن علائمی از بیماری شبکیه بررسی می‌کند؛ این بیماری غالباً آنقدر دیر تشخیص داده می‌شود که فرد قدرت بینایی خود را از دست می‌دهد. یادگیری ماشین نقشی حیاتی در پروژه‌های رانندگی خودران دارد که طی آن، وسیله نقلیه اطلاعات را از محیط پیرامون خود گرفته و اقدام به تصمیم‌گیری می‌کند.
شواهد و قرائن حاکی از آن است که هوش مصنوعی می‌تواند سطح شادی و سلامتی را افزایش دهد. اما باید جانب احتیاط را نیز رعایت کرد. مواردی که الگوریتم‌ها در آن باعث افزایش تعصبات اجتماعی حول نژاد یا جنسیت شده، نشان می‌دهد که آیندۀ مبتنی بر هوش مصنوعی نمی‌تواند الزاماً بهتر باشد.

آینده هوش مصنوعی

آغاز هوش مصنوعی

هوش مصنوعی کار خود را در قالب یک پروژۀ تعطیلات آغاز کرد. استاد دانشگاه دارتموث «جان مک‌کارتی» عبارت هوش مصنوعی را در تابستان سال ۱۹۵۶ ابداع کرد. وی از گروه کوچکی دعوت به عمل آورد تا چند هفته برای توسعه ماشین‌ها به منظور انجام کارهای پیچیده‌ای مثل استفاده از زبان، وقت بگذارند. مک‌کارتی خیلی امیدوار بود که ماشین‌هایی در حد انسان بسازد. او در جایی نوشته بود: «ما باور داریم که اگر گروهی منتخب و کاربلد از دانشمندان را گرد هم آوریم، می‌توانیم به پیشرفت‌های بزرگی در این زمینه برسیم.»

شکل‌گیری و تحول هوش مصنوعی، به ترتیب در این سال‌ها به وقوع پیوست:
سال ۱۹۵۶: پروژه تحقیقات تابستانی دانشگاه دارتموث با محوریت «هوش مصنوعی» باعث ابداع رشته جدیدی شد که با تولید نرم‌افزارهای هوشمند سروکار دارد.
سال ۱۹۶۵: «جوزف وایزنبوم» در MIT موفق به ساخت «اِلیزا» نخستین ربات مکالمه شد. این ربات نقش یک روان‌درمان را ایفا می‌کرد.
سال ۱۹۷۵: «مِتا-درندرال» نرم‌افزاری است که در استنفورد برای انجام تحلیل‌های شیمیایی ساخته شد. این نرم‌افزار با رایانه اکتشافاتی انجام داد که در یک مجله داوری‌شده منتشر شد.
سال ۱۹۸۷: یک دستگاه وَن مرسدس بنز به کمک دو دوربین و چند راننده رایانه‌ای، موفق شد مسافت ۲۰ کیلومتری را در یکی از بزرگراه‌های آلمان با سرعت بیش از ۵۵ مایل طی کند. مهندسی به نام «ارنست دیکمانس» سرپرستی این پروژه دانشگاهی را بر عهده داشت.
سال ۱۹۹۷: رایانه «Deep Blue» متعلق به «IBM» موفق به شکست گَری کاسپاروف قهرمان شطرنج جهان شد.
سال ۲۰۰۴: پنتاگون «چالش گرَند دارپا» را کلید زد؛ مسابقه خودروهای رباتیک در صحرای موجاوه که تحولی در صنعت اتومبیل‌های خودران پدید آورد.
سال ۲۰۱۲: محققان در حوزه‌ای تحت عنوان یادگیری عمیق، زمینه را برای علاقه‌مندیِ شرکت‌ها به هوش مصنوعی فراهم آوردند. آنان نشان دادند که ایده‌هایشان می‌تواند تشخیص عکس و گفتار را دقیق‌تر کند.
سال ۲۰۱۶: «آلفاگو» محصول شرکت گوگل موفق به شکست قهرمان جهان در بازی «Go» شد.

مک‌کارتی بعدها اذعان داشت که بیش از حد خوش‌بین بوده است. اما کارگاه تحقیقاتی به محققان کمک کرد تا به رویاپردازی در خصوص طراحی یک رشته دانشگاهی مناسب برای ماشین‌های هوشمند ادامه دهند. محققان در کارهای اولیه خود غالباً بر حل مسائل انتزاعی در ریاضی و منطق بسنده کردند، اما طولی نکشید که هوش مصنوعی نتایج امیدوارکننده‌ای در انجام کارهای انسان نشان داد.
در اواخر دهه ۱۹۵۰، «آرتور ساموئل» نرم‌افزارهایی را طراحی کرد که انجامِ بازی «چکر» را یاد گرفت. یکی از این نرم‌افزارها در سال ۱۹۶۲ موفق به شکست یکی از اساتید این بازی شد. در سال ۱۹۶۷، نرم‌افزاری به نام دندرال نشان داد که می‌تواند از شیوه تحلیل داده‌های جرم-طیف‌سنجیِ شیمیدان‌ها در خصوص ترکیب نمونه‌های شیمیایی تقلید کند. پیشرفت حوزه هوش مصنوعی با توسعه راهبردهای مختلف برای ساخت ماشین‌های هوشمندتر همراه بود. برخی از محققان تلاش کردند دانش انسانی را در کدنویسی به کار گرفته یا قوانینی برای کارهایی نظیر درک زبان وضع کنند.
برخی دیگر از محققان نیز از اهمیت یادگیری برای انسان و هوش حیوانات اِلهام گرفتند. آن‌ها سیستم‎هایی ایجاد کردند که با گذشت زمان، عملکرد بهتری به جا می‌گذاشتند. در این راستا، از شبیه‌سازیِ تکامل یا یادگیری از روی داده‌های نمونه کمک گرفتند. به مجرد اینکه رایانه‌ها توانستند کارهای بیشتری که قبلاً برای انجام آن‌ها به نیروی کار انسانی نیاز بود انجام دهند، هوش مصنوعی نیز به سرعت مسیر پیشرفت را طی کرد.
یادگیری عمیق که سوخت اصلیِ پیشرفت هوش مصنوعی به شمار می‌آید، اِحیای یکی از قدیمی‌ترین ایده‌ها در هوش مصنوعی است. در این روش، داده‎ها از طریق تارهای ریاضی انتقال داده‌ می‌شوند. محققان از چگونگی کارکرد سلول‌های مغز در طراحی این شبکه الهام گرفته و نام آن را شبکه‌های عصبی مصنوعی نامگذاری کرده‌اند. وقتی شبکه‌ای به پردازش داده‌های آموزشی می‌پردازد، پیوندهای میان بخش‌های مختلف شبکه تنظیم شده و قابلیت تفسیر داده‌های آتی فراهم می‌شود.
مدت زیادی از تشکیل کارگاه دارتموث نگذشته بود که شبکه‌های عصبی مصنوعی به ایده‌ای متداول و پرکاربرد در هوش مصنوعی تبدیل شدند. برای مثال، «Perceptron Mark 1» محصولی از سال ۱۹۵۸، توانست اَشکال هندسی مختلف را از هم تفکیک کند. روزنامه نیویورک تایمز از آن با تیتر «جنین رایانه‌ای که برای خواندن و عاقل‌تر شدن طراحی شده است» یاد کرد. اما پس از اینکه «ماروین مینسکی» از MIT در سال ۱۹۶۹ کتاب تاثیرگذاری به چاپ رساند، شبکه‌های عصبی محبوبیت خود را از دست دادند. او در کتاب خود به این مسئله اشاره کرده بود که این شبکه‌ها فاقد قدرت کافی هستند.
این ادعا عده زیادی را متقاعد نکرده بود و محققان برای چند دهه این روش را به کار بردند. یک سری آزمایشات در سال ۲۰۱۲ نشان داد آن دسته از شبکه‌های عصبی که حاوی حجم بالایی از داده و تراشه‌های رایانه‌ای قدرتمند هستند، می‌توانند قدرت ادراک ماشین‌ها را تقویت کنند. محققان دانشگاه تورنتوی کانادا در نتیجه‌ای قابل‌توجه، رقبا را در یک مسابقه سالیانه شکست دادند. در این مسابقه، نرم‌افزار مسئول دسته‌بندی تصاویر بود. در یک مورد دیگر، محققانی از شرکت‌های گوگل، IBM و مایکروسافت به همکاری با یکدیگر پرداخته و نتایج تحقیق‌شان را منتشر کردند. آنان نشان دادند که یادگیری عمیق می‌تواند پیشرفت چشمگیری در دقت تشخیص گفتار به ارمغان آورد. شرکت‌های فن‌آوری هر چه در توان داشتند به کار بستند تا کارشناسان یادگیری عمیق را سریعاً استخدام

کنند.

 

آینده هوش مصنوعی

آینده هوش مصنوعی

یقیناً پیشرفت هوش مصنوعی می‌تواند جهان را تغییر دهد. شرکت‌های بزرگ فن‌آوری از قبیل گوگل، مایکروسافت و آمازون نیروهای هوش مصنوعی کاربلدی را استخدام کرده و خود را به رایانه‌های قدرتمندی مجهز کرده‌اند تا عملکرد موفق‌تری در حوزه تبلیغات داشته و خرید بعدی مشتریان را پیش‌بینی کنند. آنان همچنین با دعوت از سایر افراد برای اجرای پروژه‌های هوش مصنوعی در شبکه‌های خود در تلاش هستند تا کسب درآمد کنند. این اقدام می‌تواند زمینه‌سازِ پیشرفت در حوزه‌هایی نظیر مراقبت‌های پزشکی یا امنیت ملی شود. پیشرفت سخت‌افزارهای هوش مصنوعی، تمرکز بر دوره‌های یادگیری ماشین و پروژه‌های یادگیری ماشین منبع باز می‌تواند گسترش دامنۀ هوش مصنوعی در صنایع دیگر را سرعت بخشد.
انتظار می‌رود هوش مصنوعی بیش از پیش در خدمات و وسایل الکترونیکی به کار برده شود. شرکت‌های گوگل و آمازون ابراز امیدواری کرده‌اند که پیشرفت یادگیری ماشین باعث قوی‌تر شدنِ گوینده‌های هوشمند و دستیارهای مجازی‌شان خواهد شد. برای مثال، آمازون وسیله‌هایی مجهز به دوربین دارد که مالکان‌شان و جهان پیرامون آن‌ها را مورد نظارت قرار می‌دهند. هوش مصنوعی فرصت‌های تجاری متعددی را به ارمغان آورده و همین عامل باعث ترغیب طیف وسیعی از محققان در این حوزه شده است.
تعداد آزمایشگاه‌هایی که به تولید ماشین‌های هوشمند می‌پردازند، روند صعودی به خود گرفته است و شاهد افزایش سرمایه‌گذاری‌ها در این زمینه هستیم. کارها و پروژه‌های زیادی وجود دارد که می‌توان بر روی آن‌ها کار کرد. علی‌رغم پیشرفت‎های اخیر در هوش مصنوعی و پیش‌بینی‌های گسترده درباره آینده آن، باز هم کارهای زیادی وجود دارند که ماشین‌ها قادر به انجام‌شان نیستند؛ مثل درک فحوای کلام، استدلال با عقل سلیم و یادگیری مهارت جدید از روی یک یا دو نمونه. اگر قرار باشد نرم‌افزارهای هوش مصنوعی این کارها را انجام دهند، باید خود را به سطحی نزدیک با هوشِ چندمنظوره، وفق‌پذیر و خلاق انسان برسانند. یکی از پیشروان یادگیری عمیق به نام «گئوف هینتون» از شرکت گوگل ادعا می‌کند پیشرفت در این چالش بزرگ نیازمند تجدیدنظر درباره برخی از اصول این حوزه می‌باشد.
با قدرتمندتر شدنِ سیستم‌های هوش مصنوعی، باید شاهد انجام تحقیقات و بررسی‎‌های بیشتر بر روی آن‌ها باشیم. استفاده دولت‌ها از نرم‌افزارها در حوزه‌هایی نظیر جرم‌شناسی معمولاً با خطا و نقص همراه است. هوش مصنوعی قدرتمند قابلیت ایجاد مشکلات بدتری را هم دارد. در مواردی دیده شده که هوش مصنوعی با تعصب با زنان یا سیاه‌پوست‌ها برخورد می‌کند. گروه‌های مدنی و حتی خود صنعت فن‌آوری در حال بررسی قوانین و دستورالعمل‌هایی در خصوص ایمنی و اخلاق هوش مصنوعی هستند. ما برای اینکه از منافع ماشین‌های هوشمند بهره‌مند شویم، باید اطلاعات بیشتری درباره آن‌ها کسب کرده و عملکرد هوشمندانه‌ای در برخورد با آن‌ها داشته باشیم.

آیا ما آماده برخورد صمیمانه با اندرویدها هستیم؟

اگر ماشین‌های مصنوعیِ ساخته انسان درست مانند ما انسان‌ها رفتار کنند و شکل و شمایل‌شان هم شبیه ما باشد، چه اتفاقی خواهد افتاد؟ «هیروشی ایشی گورو» با به‌کارگیری مهندسی معکوس در نظر دارد اندرویدهایی بسازد تا چگونگی شکل‌گیری روابط را یاد بگیرد. تحقیقات او می‌تواند برای ما پیش‌نمایشی از آن دسته مسائلی را که با تکامل علم رباتیک و هوش مصنوعی با آنها روبرو خواهیم شد، فراهم کند. محدودیت‌های هوش مصنوعی می‌تواند مانند قابلیت‌هایش حائز اهمیت باشد.
علی‌رغم پیشرفت‌هایی که در سال‌های اخیر در تشخیص عکس به‌دست آمده، WIRED دریافت که شرکت گوگل به الگوریتم‌های خود برای عدم ادغام میمون‌ها و انسان سیاه‌پوست اطمینان ندارد. با توجه به اینکه شرکت‌ها و دولت‌ها با آغوش باز به استقبالِ هوش مصنوعی قدرتمند می‌روند، محققان با یک سری پرسش‌های اخلاقی در خصوص سیستم‌های هوش مصنوعی و چگونگی استفاده از آن‌ها مواجه‌اند.

منبع: hooshio.com

جنگ بر سرِ آینده فناوری از دید کارشناسان هوش مصنوعی


اینکه جنگ بر سرِ جنگ بر سرِ آینده فناوری از دید کارشناسان هوش مصنوعی چیست و به کجا خواهد رسید سال‌هاست که از چالش‌های همیشگی کارشناسان هوش مصنوعی بوده است. هوش مصنوعی از دهه ۱۹۵۰ میلادی با فراز و نشیب‌های فراوانی روبه‌رو بوده است.

اگرچه در سال‌های اخیر و به لطف یادگیری عمیق در حوزه هوش مصنوعی، پیشرفت‌های قابل‌توجهی حاصل شده، اما هوش مصنوعی کماکان در برابر حملات، از خود آسیب‌پذیری نشان داده و توانایی سازگاری با محیط‌های در حال تغییر را ندارد. تمامی این چالش‌ها و مشکلات، باعث عدم اطمینان کامل به فناوری هوش مصنوعی شده و ظرفیت آن را برای به‌کارگیری سودمندانه در جامعه محدودتر کرده است.
در ۲۶ مارس ۲۰۲۰ و در مدت رویداد سالیانۀ «EmTech»در حوزه دیجیتال، دو شخصیت برجسته حوزه هوش مصنوعی درباره چالش‌های پیش رو و یافتن راهکاری مناسب برای فائق آمدن بر این مشکلات به بحث و تبادل نظر پرداختند.
«گری مارکوس» استاد بازنشستۀ دانشگاه نیویورک و بنیان‌گذار و مدیر عامل «Robust.AI» یکی از منتقدان مشهور یادگیری عمیق است. وی در کتاب خود تحت عنوان «Rebooting AI» که سال گذشته به چاپ رسید، اظهار داشت که معایب هوش مصنوعی ریشه در این روش دارد. بنابراین، او مدعی شده که محققان باید فراتر از یادگیری عمیق گام برداشته و آن را با سیستم‌های هوش مصنوعیِ نمادین یا کلاسیک ادغام نمایند؛ سیستم‌هایی که دانش را رمزگذاری کرده و از قابلیت استدلال برخوردار هستند.
«دنی لانج» نایب رئیس حوزه هوش مصنوعی و یادگیری ماشینی در «Unity» از یادگیری عمیق طرفداری می‌کند. وی تا کنون به عنوان مدیر یادگیری ماشینی در شرکت تاکسی‌رانی اینترنتی «Uber»، مدیر کل یادگیری ماشینی آمازون و یکی از کارشناسان این حوزه در شرکت مایکروسافت سابقه فعالیت داشته است و در طول فعالیت چندساله خود، همواره از قابلیت‌های نویدبخش هوش مصنوعی صحبت کرده است. او هم‌اکنون در «Unity» مشغول به همکاری با آزمایشگاه‌هایی نظیر «DeepMind» و «OpenAI» است. هدف از این همکاری، کمک به ساخت محیط‌های آموزشی مجازی است که در آن الگوریتم‌ها بتوانند درکی از جهان حقیقی یاد بگیرند.
درطول این رویداد، هریک از سخنران برای مدتی کوتاه، سخنرانی کوتاهی را ارائه داده و برای برگزاری بحث و گفتگو در این حوزه، گردهم می‌آمدند. مخالفت‌هایی که درطول این گردهمایی مطرح شد، بازتاب‌دهندۀ چالش‌ها و دیدگاه‌های متفاوت در حوزه هوش مصنوعی و نحوه شکل گرفتن این تکنولوژی به لطف تنوع و گستردگی ایده‌های تازه است. با توجه به تمامی این صحبت‌ها و گفتگو‌ها، می‌توان به وضوح دید که قاطعیت چندانی در حوزه گام بزرگ بعدی فناوری هوش مصنوعی وجود ندارد و ممکن است شاهد تغییراتی باشیم که پیش از این، انتظار آن را نداشتیم.
در زیر خلاصه‌ای از این بحث را می‌خوانید.

گری، تو با تکیه بر تخصص خودت در علوم اعصاب و روان‌شناسی، سعی کردی به این مسئله پاسخ بدهی که هم‌اکنون هوش مصنوعی با چه چالش‌هایی دست‌و‌پنجه نرم می‌کند. از نگاه تو، چه عاملی هوش مصنوعیِ کلاسیک را به سیستمی مناسب برای ادغام با یادگیری عمیق تبدیل می‌کند؟

گری مارکوس: اولیه نکته‌ای که باید به آن اشاره کنم این است که ما احتمالاً به یک سری سیستم‌های ترکیبی نیاز خواهیم داشت که بسیار پیچیده‌تر از یادگیری عمیق و هوش مصنوعی کلاسیک هستند. البته چیزهای دیگری هم شاید وجود داشته باشد که حتی خواب‌شان را هم ندیده‌ایم! به همین خاطر باید با نگرشی باز و پذیرا به جنگ بر سرِ آینده فناوری نگاه کنیم.
چرا باید هوش مصنوعی کلاسیک را به این ترکیب اضافه کرد؟ خب، استدلال‌های مختلف ما همگی بر پایه دانش‌مان در جهان استوار است؛ یادگیری عمیق این مورد را بازتاب نمی‌دهد. هیچ روشی در این سیستم‌ها وجود ندارد که بتوان به آنها نشان داد توپ یا بطری چیست و این‌ها چه تاثیری روی همدیگر می‌گذارند. بنابراین نتایج خوب و امیدبخش‌ به نظر می‌رسند، اما قابلیت تعمیم آنها خیلی کم است.
هوش مصنوعی کلاسیک می‌تواند یک جمله را به بخش‌های معنایی مختلف تجزیه کند، یا دانشی درباره اتفاقات جهان بدست آورده و بر اساس آنها استنتاج نماید. البته هوش مصنوعی کلاسیک مشکلات خودش را هم دارد: برای مثال، معمولا فاقد پوشش کافی است چرا که بخش اعظم آن به صورت دست‌نوشته است، اما حداقل در تئوری، این تنها روش برای تولید سیستم‌هایی است که توانایی انجام کارهایی مثل استنتاج منطقی و استقراء در دانش انتزاعی را دارند. البته کماکان بدین معنا نیست که استدلال‌های آن کاملا صحیح‌اند، اما در حال حاضر بهترین ابزاری است که در اختیار داریم.
همچنین شواهد و مدارک روان‌شناسی موجود، گویای آن است که افراد تا حدودی قادر به نمایش نمادین هستند. من قبلاً با آزمایش‌هایی که بر روی کودکان هفت‌ماهه انجام دادم، به این نتیجه رسیدم که کودکان توان تعمیم دادن دانش نمادین را دارند. بنابراین اگر یک کودک هفت‌ماهه قادر به انجام چنین کاری باشد، چرا همچنان به دنبال ساخت سیستم هوش مصنوعی بدون سازوکارهایی هستیم که کودکان از آن برخوردارند؟

آیا تابه‌حال محققان موفق شده‌اند در پروژه‌های خود یادگیری عمیق و هوش مصنوعی را به شیوه‌ای نویدبخش ادغام کنند؟

گری مارکوس: من در مقاله‌ای با عنوان «دهه بعدی در هوش مصنوعی» به ۲۰ پروژۀ اخیر اشاره کردم که استفاده از مدل‌های ترکیبی را در دستور کارشان قرار داده بودند که در این مدل‌ها، سطحی مشخص از یادگیری عمیق و دانش نمادین به کار گرفته شده است. یک مثال که همه با آن آشنا هستند، جستجوی گوگل است. وقتی در یک موتور جستجو تایپ می‌کنید، هوش مصنوعی کلاسیک سعی می‌کند تا واژگان را ابهام‌زدایی کند. مثلا وقتی که از «پاریس» حرف می‌زنید، هوش مصنوعی به دنبال پی بردن به این مسئله است که آیا منظورتان پاریس هیلتون است یا پاریسِ فرانسه. در این راستا، از نمودار دانش گوگل استفاده می‌شود. سپس از یادگیری عمیق برای انجام برخی کارهای دیگر استفاده می‌کند؛ مثل یافتن مترادف‌ها با استفاده از مدل « BERT». البته جستجوی گوگل، آن هوش مصنوعیِ ایده آل که به دنبالش هستیم نیست، اما جستجوی گوگل این گواهی را به ما می‌دهد که باید به تلاش خود‌ ادامه داده و رویای‌مان را در این حوزه تحقق ببخشیم.

دنی، آیا موافق هستی که باید از این مدل‌های ترکیبی استفاده کنیم؟

دنی لانج: خیر، من موافق نیستم. مشکل من با هوش مصنوعی نمادین اینجاست که این فناوری می‌خواهد بطور جامع از مغز انسان تقلید کند. این اقدام مرا به یاد قرن ۱۸ می‌اندازد، دورانی که اگر به دنبال حمل‌و‌نقل سریع بودید، اقدام به ساخت اسب مکانیکی می‎‌کردید؛ به جای اینکه موتور احتراق را اختراع کنید. بنابراین، من درباره تلاش برای حل هوش مصنوعی با تقلید از مغز انسان خیلی تردید دارم.
یادگیری عمیق لزوما یک راهکار جادویی نیست، اما اگر داده‌های کافی در اختیار یادگیری عمیق قرار دهیم و از ساختار شبکه عصبی مناسبی بهره‌مند باشیم، یادگیری عمیق قادر به یادگیری آن دسته از مفاهیم انتزاعی خواهد بود که ما انسان‌ها از تفسیر آن مفاهیم عاجز هستیم. این کار می‌تواند کارآیی سیستم را برای حل طیف وسیعی از کارها افزایش دهد.
به نظر می‌رسد شما دیدگاه‌های کاملا مخالفی درباره اهداف هوش مصنوعی دارید.

گری مارکوس: من در ماه دسامبر ۲۰۱۹ با «یوشوآ بنجیو» گفت‌وگویی داشتم. بجیو گفت که تنها نقش مثبت یادگیری عمیق این است که بنیان آن روی عصب‌شناختی استوار باشد. من دیدگاه‌های کاملاً مخالفی در خصوص یادگیری عمیق شنیده‎‌ام. این موضوع کمی عجیب است و به نظر من نباید این گفته‌ها را زیاد جدی بگیریم. در عوض، باید این پرسش مطرح کنیم: «آیا نمادها می‌توانند به ما کمک کنند؟» بله، بی‌تردید. تقریباً تمامی نرم‌افزارهای جهان بر اساس نمادها ساخته شده‌اند. شاید پرسش بعدی‌تان این باشد: «از دید تجربی، آیا یادگیری عمیق همان کاری را انجام می‌دهد که ما انتظار انجامش را داریم؟» مشکل اینجاست که یادگیری عمیق عاری از مدل است.

دلیل اصرار ما بر تجدید نظر در خصوص قابلیت‌های انسان این است که انسان می‌تواند برخی از کارها را خیلی بهتر از سیستم‌های یادگیری عمیق انجام دهد. البته نباید این‌طور برداشت کرد که انسان‌ها سرانجام به عنوان مدل مناسب مورد استفاده قرار خواهند گرفت، در واقع ما به دنبال ساخت سیستم‌هایی هستیم که ترکیبی از ویژگی‌های رایانه‌ و انسان را داشته باشند، اما از آنجایی که انسان تنها مدل یک سیستم است که می‌تواند درک عمیقی از موضوعی خاص داشته باشد، باید این مدل را جدی گرفت.

دنی لانج: پس مثالی که در آن گفته می‌شود زبان‌های برنامه‌نویسیِ جهان نمادین هستند، واقعیت دارد زیرا هدف از طراحی آنها، تحقق بخشیدن به افکار و ایده‌های انسان است. یادگیری عمیق نسخه کپی از مغز انسان نیست. شاید بتوان گفت که یادگیری عمیق از سیستم عصبی الهام گرفته شده است، اما این یک نرم‌افزار است. ما در حال حاضر موفق به رمزگشایی ابعاد ژرف بحث یادگیری عمیق نشده‌ایم. ما حجم محدودی از داده‌های آموزشی در اختیار داریم. ساختارهای قابل‌دسترس ما نیز محدود هستند. افزایش قدرت محاسباتی یکی از نیازهای مبرم ماست. اما نباید این نکته کلیدی را فراموش کرد که یادگیری عمیق، مفهوم و ویژگی‌ها را فرامی‌گیرد. این کار، دستکاری شده و مهندسیِ شده بدست انسان نیست. فکر می‌کنم تفاوت بزرگ میان روشِ گری و روش من این است که آیا مهندسان عامل «هوش» را در سیستم تعبیه می‌کنند یا سیستم خودش به یادگیری «هوش» خواهد پرداخت.

دنی، تو اشاره کردی که یادگیری عمیق به دلیل محدودیت داده‌ای و محاسباتی قادر نیست ظرفیت‌های خود را به طور کامل نشان دهد. با توجه به اینکه یادگیری عمیق خیلی ناکارآمد است، بهتر نیست روش‌های جدیدی توسعه پیدا کنند؟ ما برای رمزگشایی و استفاده از قابلیت‌های جدید یادگیری عمیق، مجبور به افزایش چشمگیرِ محاسبات بودیم.

دنی لانج: یکی از مشکلات اصلی یادگیری عمیق، توسعه آن برپایه یک نوعی روش کلاسیک است؛ یعنی ما یک مجموعه‌داده آموزشی بزرگ را ایجاد کرده و سپس آن را وارد سیستم می‌کنیم. یکی از چیزهایی که می‌تواند یادگیری عمیق را بهبود ببخشد، برخورداری از یک فرآیند یادگیری فعال است. بر این اساس شبکه آموزش داده شده تا داده‌های آموزشی بهینه‌سازی شوند و دیگر مجبور به افزودن مقادیر عظیمی داده به شبکه نیستیم تا فرایند یادگیری را بهبود پیدا کند؛ شما می‌توانید به طور پیوسته، داده‌های آموزشی خود را برای رسیدن به یک نقطه مشخص بکار بگیرید.

گری، تو به آسیب‌پذیر بودنِ یادگیری عمیق در برابر بایاس (سوگیری) و حملات خصمانه اشاره کردی. دنی، تو گفتی که داده‌های مصنوعی راه‌حل مناسبی برای این مشکل است زیرا هیچ نوع سوگیری در کار نیست و افزون براین، امکان انجام میلیون‌ها شبیه‌سازی وجود دارد که مصون از این حملات خصمانه هستند. پاسخ شما به این مسائل چیست؟

گری مارکوس: داده کماکان نمی‌تواند به تنهایی یک راه‌حل قلمداد شود. داده‌های مصنوعی این قابلیت را ندارند که در مواردی همچون اعطای وام یا مصاحبه‌های شغلی، جلوی سوگیری را بگیرند. مشکل اصلی این است که این سیستم‌ها دچار نوعی از سوگیری می‌شوند که دلایل آن ریشه تاریخی دارد. درحال حاضر عده‌‎ای به جای استفاده‌ از داده‌های مصنوعی، مشغول ساخت سیستم‌هایی هستند که بتواند سوگیری‌های فرهنگی را به خوبی درک کند.
حملات خصمانه مقوله کاملاً متفاوتی هستند. شاید داده‌ها جلوی برخی از این حملات را بگیرند، اما کماکان طیف وسیعی از حملات خصمانه انجام می‌شوند و عملاً امکان پیشگیری از آنها وجود ندارد. سیستم‌هایی که کاملاً داده‌محور هستند، همواره آسیب‌پذیر خواهند بود.

دنی لانج: داده‌های جهان حقیقی سوگیری زیادی دارند. به عنوان مثال، ما در محیط خاصی مثل وسایل نقلیه خودران به گردآوری داده می‌پردازیم و داده‌های ثبت شده از عبور و مرور ۹۰ درصد از بزرگسالان و ۱۰ درصد از کودکان در خیابان‌ها خبر می‌دهند. این توزیع نرمال است، اما سیستم یادگیری ماشینی باید بر اساس تعداد برابری از بزرگسالان و کودکان آموزش داده شود تا به هیچ یک از آن‌ها برخورد نکند. پس اگر جانب احتیاط را رعایت کنیم، می‌توانیم با داده‌های مصنوعی به برقراری تعادل پرداخته و از رخ دادن هرگونه سوگیری اجتناب کنیم. البته این بدان معنا نیست که امکان ایجاد سوگیری جدیدی وجود ندارد، باید مراقب این مسئله باشیم. در ضمن رخ دادن چنین موضوعی می‌تواند نگرانی‌های موجود در حوزه امنیت و حریم خصوصی را نیز کاهش دهد، چرا که در داده‌های آموزشی، هیچ بزرگسال یا کودک واعقی وجود نخواهد داشت. ما به حجم عظیمی از داده‌ها احتیاج خواهیم داشت تا بتوانیم چنین مدل‌های بینایی رایانه‌ای را ایجاد کرده و میزان فریب‌خوردگی‌ آن‌ها را به حداقل برسانیم.

کدام یک از جنبه‌های هوش مصنوعی از دید شما بیشترین جذابیت را دارد و در آینده خبرهای بیشتری از آن خواهیم شنید؟

گری مارکوس: در سال‌های اخیر شاهد جهش قابل‌توجهی به سمت مدل‌های ترکیبی بوده‌ایم. افراد به دنبال کاوش در مسائلی هستند که قبلاً رغبتی به آنها نشان داده نمی‌شد و به نظر من، این اقدام هیجان‌انگیزی است.
دنی لانج: من فکر می‌کنم سیستم‌های چندمدلی درآینده فناوری خبرساز خواهند بود. این سیستم‌ها از چندین مدل مختلف تشکیل یافته‌اند که در حوزه ادراک و رفتار به کار گرفته خواهند شد. به نظر من این سیستم‌ها در حل مسائل پیچیده نقش بزرگی ایفا خواهند کرد.

منبع: hooshio.com