مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

چرا یادگیری ماشین به کابوس تبدیل شده؟


فرض کنید یکی از مهندسان یادگیری ماشین شرکت آمازون هستید. تیمتان به تازگی یک مدل قیمت‌گذاری (RNN) جدید منتشر کرده تا فرایند قیمت‌گذاری بر اساس نوع خرید افراد، به صورت خودکار انجام شود. شما و همکاران‌تان زحمات زیادی کشیده و بارها این مدل را آزمایش کرده‌اید. حالا تلاش دو ساله شما به بار نشسته و پیش‌بینی می‌شود سالیانه یک میلیون دلار سودآوری داشته باشد. این موفقیت، تا حدی شما را به وجد آورده که می‌خواهید تعطیلات را در مکانی مجلل و گران‎قیمت جشن بگیرید. اما در راه سفر به باهاماس، خبر بدی دریافت می‌کنید. مدل یادگیری ماشین‌تان دچار سوءعملکرد شده و قیمت‌گذاری کالاها را اشتباه انجام داده است. هر کاری از دست‌تان برمی‌آید انجام می‌دهید تا مشکل را حل کنید، اما خیلی دیر شده و سیستم کالاها را تحویل داده است. مدل یادگیری ماشین شما، به شرکت ۳ میلیون دلار ضرر زده است.روز بعد، با تمام قوا تصمیم به رفع مشکل می‌گیرید و مجدداً مدل را آزمایش می‌کنید. به نظر نمی‌رسد مشکل خاصی وجود داشته باشد. آیا توزیع قیمت تغییر یافته؟ آیا فرایند آماده‌سازی داده دچار مشکل شده؟ کیفیت داده پایین آمده؟ از تمام توان ذهن‌تان بهره می‌گیرید تا علت مشکلات را پیدا کنید، اما به هیچ سرنخی نمی‌رسید. بنابراین، تصمیم می‌گیرید جریان سرازیری داده‌ها از هر ماشین‌های مجازی را و فایل‌های مختلف config تفکیک کرده، مدل را از نو بسازید و آزمایش‌ها را یک به یک انجام دهید. در فرایند انجام این کارها، یادتان می‌رود نسخه‌ها را به‌روزرسانی کنید و سرانجام، پس از چند شب بی‌خوابی مشکلات را حل می‌کنید.

به هزینه تصمیمات مصلحت‌آمیز، بدهی فنیگفته می‌شود که در مدت اجرای کُد گرفته می‌شوند. دلیل این تصمیم، متوسل شدن به مسیرهای میانبری است که می‌تواند در انتشار اولیه نرم‌افزارها و بازاریابی سریع، سود کوتاه‌مدت به همراه داشته باشد. «وارد کانینگهام» در سال ۱۹۹۲ این اصطلاح را ابداع کرد تا نیاز سهامدار به ریفکتور (refactor) را توضیح دهد. این اصطلاح در صنعت توسعه نرم‌افزار به کار برده می‌شود و به این معناست که توسعه‌دهنده به جای صرف زمان زیاد و یافتن بهترین راه حل در طول فرایند کدنویسی، از راه‌حل فوری و آسانی به منظور حل موقت یک مسئله استفاده ‌کند؛ در عوض متعهد می‌شود زمانی را در آینده برای یافتن راه‌حل اساسی و کاربردی اختصاص دهد.
به‌طور مشابه، در هوش مصنوعی و یادگیری ماشین نیز به افزایش بدهی فنی تمایل داریم و برای حل مسائل، استفاده از مسیرهای میانبر و کوتاه را در دستور کار خود قرار می‌دهیم. اگر برای کارمان ضرب‌الاجل فوری تعیین کرده‌ باشند، به‌کارگیری این نوع راه‌حل‌ها را امری مناسب و ضروری می‌دانیم. اما گاهی این اقدامات هزینه‌های سنگینی به بار می‌آورد. لزوماً همه بدهی‌ها به ضرر ما تمام نمی‌شوند، اما بدهی‌های پرداخت‌نشده می‌توانند بار سنگینی روی دوش‌مان بگذارند.

سیستم یادگیری ماشین ناپایدارمشکلات یادگیری ماشین

سیستم قیمت‌گذاری را تصور کنید که از سیستم «مدیریت رابطه مشتری» یا «CRM» برای پیاده‌سازی استراتژی قیمت‌گذاری استفاده می‌کند. کیفیت این سیستم قیمت‌گذاری تا حد زیادی به داده‌هایی بستگی دارد که از سیستم CRM به دست می‌آیند. بنابراین، نادیده گرفتن ویژگی‌ها می‌تواند تمامی نتایج را در یادگیری ماشین دچار اختلال کند. حالا فرض کنید این سیستم با ویژگی‌های بسیار زیادی سروکار دارد. در این شرایط، مدل یادگیری ماشین شما در بهترین حالت شکننده و ناپایدار عمل خواهد کرد و در بدترین حالت نیز انتظار می‌رود جریان سرازیری داده با مشکل جدی روبه‌رو شود.
این مسئله در شرکت‌های نوپای هوش مصنوعی به یک هنجار تبدیل شده، چرا که آن‌ها سرعت‌عمل بالایی برای آماده‌سازی محصولات و ارائه به سهام‌داران خود نشان می‌دهند. یکی از همکاران ما در یک شرکت نوپای هوش مصنوعی اعلام کرد که هیچ‌گاه از ابزارهای مدیریت «Dec Ops»، مشکل‌یاب (Jira) و «Git» برای توسعه سیستم‌های یادگیری ماشین خود استفاده نکرده‌اند. این مسئله برای ما خیلی شگفت‌آور بود، چرا که بسیاری از شرکت‌های دیگر نیز بدون مدیریت مناسب بدهی فنی و ابزارهای «Dec Ops» وارد حوزه یادگیری ماشین و هوش مصنوعی می‌شوند. «Dec Ops» در مهندسی نرم‌افزار اهمیت فراوانی دارد، اما «MLOPs» برای ابزارهای یادگیری ماشین جدایی‌ناپذیر است.

چهار مشکل بزرگ در یادگیری ماشینیمشکلات یادگیری ماشین

۱. درهم‌تنیدگی

سیستم‌های یادگیری ماشین (ML) به ماشین‌هایی گفته می‌شود که با داده سروکار دارند. فرض کنید مدل قیمت‌گذاریِ شما عملکرد بسیار خوبی در قیمت‌گذاری همۀ محصولات داشته باشد، به جز جاروبرقی و شما با افزایش حساسیت قیمت‌گذاری وسایلِ مخصوص تمیزکاری، جاروبرقی را قیمت‌گذاری کرده‌اید. بعد متوجه می‌شوید این قیمت‌گذاری با قیمت ماشین ظرفشویی همخوانی ندارد. شیوه توزیع قیمت دستگاه‌های جاروبرقی قابل کاربرد در توزیع قیمت دستگاه شستشوی ظرف نیست. حالا باید قانون جدیدی وضع کنید که شاید سایر کالاها و محصولات را تحت‌تاثیر قرار دهد. شما به درهم‌تنیدگیِ داده‌ها و درون‌بینی پی می‌برید.

۲. خطوط لوله پیچیده

سیستم‌های هوش مصنوعی و یادگیری ماشین از خطوط لوله گردشکار بسیار متفاوتی تشکیل شده‌اند که مسئول انجام کارهای پیچیده‌ای هستند. سیستم یادگیر شما بوسیله تعدا زیادی مهندس ساخته خواهند شد و این سیستم‌ها با منابع داده‌ای و تعداد زیادی از سیستم‌های دیگر پیوند دارند.
باید کارهای زیادی را در خطوط لوله مناسبِ یادگیری ماشین طراحی کرد. از جمله این کارها می‌توان به تولید داده، ETL، تصدیق داده‌ها، نظارت بر عملکرد و… اشاره کرد. مدلِ شما به زودی به سطح بالایی از پیچیدگی می‌رسد که نداشتن عملیات استاندارد و ابزارهای مناسب باعث می‌شود برای اِعمال تغییرات ساده در سیستم‌های مختلف، به چندین ساعت زمان نیاز داشته باشید. پس خطوط لوله پیچیده باعث کُند شدن فعالیت‌های مهندسیِ شما می‌شود که اگر از شیوه برخورد با این وضعیت درک خوبی نداشته باشید، باید برای اِعمال تغییرات ساده، چندین ساعت زمان صرف کنید.

۳. حلقه‌های بازخورد پنهان

سیستم‌های حقیقی بر داده‌های ما تاثیر می‌گذارند. فرض کنید نماینده فروش‌تان یک کمپین بازاریابی راه انداخته و می‌خواهد کودکان را در سیستم CRM بگنجاند که مدل قیمت‌گذاری شما از این سیستم استفاده کرده است. پیش‎فرض مدل یادگیری ماشین این است که طیف وسیعی از مشتریان، مایل به خرید اسباب‌بازی‌ هستند. در نتیجه، مدل یادگیری ماشین قیمت اسباب‌بازی‌ها را افزایش داده و تخفیف بالایی برای کالاهای گِران در نظر می‌گیرد. با این حال، مدل قیمت‌گذاری رقیب‌تان با مشاهده افزایش قیمت کالاهای شما اقدام به بالا بردن سرسام‌آور قیمت اسباب‌بازی‌ها می‌کند. سیستم شما این رویه را در پیش گرفته و چنین چرخه‌ای را به وجود آورده است. به این ترتیب حلقه‌های بازخورد پنهان باعث ایجاد اختلال در سیستم یادگیری ماشین شما شده است.

۴. وابستگی شکننده به داده

فرض کنید مدل قیمت‌گذاری شما بر پایه جنسیت مشتریان‌تان استوار است. اگر مردی به دنبال خرید محصولات آرایشی باشد، به احتمال زیاد آن را به همسر یا نامزدش هدیه خواهد داد. در این شرایط، او مایل است هزینه زیادی در قبال آن بپردازد. یادگیری ماشین شما آماده است تا بر اساس جنسیت، اقدام به قیمت‌گذاری کند. با این وجود، نماینده کسب‌و‌کارتان یک برچسب با عنوان «جنسیت» در CRM اضافه می‌کند. اگر سیستم یادگیری ماشینی شما عناوینی به غیر از «مونث» یا «مذکر» ببیند، دچار اختلال خواهد شد؟ پس حالا مدل قیمت‌گذاریِ لوازم آرایشی را چطور انجام می‌دهد؟ این احتمال وجود دارد که سیستم با به‌روزرسانیِ سیستم‌های بالادستی، کارآیی خود را از دست بدهد.

پرداخت بدهی‌های فنی یادگیری ماشینیمشکلات یادگیری ماشین

بدهی فنی دردسرهای زیادی دارد. هنگامی که به عنوان مهندس داده در «Visa» و گوگل مشغول به کار بودم، می‌بایست از وجود یک خط لوله قابل‌اطمینان استفاده می‌کردم که از شفافیت بالایی برخوردار باشد. پس به نوعی عملیات استاندارد نیاز داشتم تا جنبه‌های فنی و داده‌ایِ یادگیری ماشین را پوشش دهد. در ضمن، می‌بایست از عدم کاهش کیفیت در طی زمان اطمینان حاصل می‌کردم. سه راهکار برای کاهش بدهی فنی «MLOps» وجود دارد که در زیر اشاره خواهیم کرد:

۱. کدها و داده‌ها را آزمایش کنید.
آزمایش کردن یکی از مهم‌ترین و ناخوشایندترین کارها در بخش فن‌آوری است. هدف از این کار، محدودسازی و کاهش بدهی فنی و اطمینان حاصل کردن از کیفیت تولید یادگیری ماشین است. ما در «DevOps» دو نوع آزمایش را یاد گرفتیم: آزمایش واحد (یعنی آزمایش کردن یک کارکرد) و آزمایش یکپارچگی (یعنی آزمایش کردن کارکردهای یکپارچه). با این حال، در «MLOps» نیاز به راه‌اندازی فرایند canary داریم تا کیفیت خط لوله یادگیری ماشین را آزمایش کنیم.

۲. آموزش، آزمایش و سازگاری مقادیر.
وقتی مشغول آموزشِ مدل‌هایتان هستید، از داده‌های log استفاده می‌کنید. با این حال، در فرایند تولید باید با داده‌های زنده سروکار داشته باشید که شاید بنا به مسائل زیادی از قبیل سری زمانی، کیفیت دوربین (عکس)، زبان و… به مقادیر متفاوتی دست پیدا کنید. بنابراین، همواره باید حواس‌تان به هر دو نوع داده مذکور باشد تا کیفیت تضمین شود.

۳. به صورت محافظه‌کارانه امتیاز دهید.
باید به هر مرحله از آزمایش مدل یادگیری ماشین خود امتیاز دهید. امتیازهای سلامت خط لوله را در چهار بخش مختلف به کار ببرید:

  • زیرساخت یادگیری ماشین: باید کیفیت جریان داده‌های پایین‌رو و بالارو آزمایش شود.
  • توسعه مدل یادگیری ماشین: باید از طریق آزمایش مطمئن شویم که مدل حاوی ویژگی‌های نامناسب نیست.
  • ویژگی‌ها و نمونه‌گیری: باید از طریق آزمایش مطمئن شویم که توزیع ویژگی‌ها با انتظارات‌مان همخوانی دارد.
  • اجرای سیستم‌های یادگیری ماشین: باید کیفیت کد‌ها و داده‌ها را بسنجیم. کلیه این مراحل برای تضمین کارآییِ مدل اهمیت زیادی دارند.

مقابله با بدهی فنی مستلزم این است که شناخت خوبی از خط لوله یادگیری ماشین در چرخۀ حیات آن به‌دست آورید. بنابراین، باید توجه ویژه‌ای به نمونه داده‌ها، مدل‌سازی، آزمایش و سرانجام به‌کارگیریِ مدل داشته باشید. اگر تمامی این مراحل را به درستی انجام دهید، قادر هستید مدل‌تان را به سرعت توسعه دهید، به شیوه پیش‌بینی‌شده اجرا کنید و خدمات خوبی برای مشتریان خود ارائه دهید.

منبع: hooshio.com

راه حل کمبود داده در یادگیری ماشین


کمبود داده های کافی علی‌رغم برخورداری از ایده‌های فوق‌العاده هوش مصنوعی در کسب‌وکار، موجب نگرانی شرکت‌ها شده است. اما راه حل‌هایی هم برای این مساله وجود دارد.

الکساندر گلفالونیِری

 

هدف مقاله حاضر این است که خواننده را با برخی از این راه‌حل‌ها آشنا کند، اما ارائه همه راه‌حل‌های موجود در دستور کار این مقاله نیست. مسئلۀ کمبود داده اهمیت زیادی دارد، زیرا داده‌ها نقشی حیاتی در پروژه‌های هوش مصنوعی ایفا می‌کنند. بنابراین عملکرد ضعیف در پروژه‌های یادگیری ماشین را می‌توان به اندازه مجموعه‌داده نسبت داد؛ چرا که در اغلب موارد، مسائل مرتبط با کمبود داده، دلیلِ اصلیِ عدم اجرای پروژه‌های بزرگ هوش مصنوعی هستند.

محققان در بعضی از پروژه‌ها به این نتیجه می‌رسند که هیچ داده مرتبطی وجود ندارد یا فرایند گردآوری داده دشوار و زمان‌بر است. مدل‌های یادگیری بانظارت(Supervised) با موفقیت برای پاسخگویی به طیف وسیعی از چالش‌های کسب‌وکار استفاده می‌شوند. با این حال، این مدل‌ها به شدت نیازمند داده هستند و اندازه داده‌های آموزشی اهمیت زیادی دارد.

در اغلب موارد، ساخت مجموعه‌داده‌هایی که به قدر کافی بزرگ باشند، کار سختی است. از مشکلات دیگر این است که تحلیل‌گران پروژه، معمولاً میزان داده‌های لازم برای مدیریت مسائل رایج در کسب‌وکار را دست کم می‌گیرند. من هم در جمع‌آوری مجموعه‌داده‌های آموزشی بزرگ به مشکل خورده‌ام. وقتی برای شرکت بزرگی کار می‌کنید، گردآوری داده پیچیده‌تر می‌شود.

چه میزان داده نیاز داریم؟

خب، حدود ۱۰ برابر بیشتر از درجه آزادی در مدل، به نمونه نیاز است. هرقدر مدل پیچیده‌تر باشد، بیشتر در معرض بیش‌برازش قرار می‌گیرید؛ اما با اعتبارسنجی می‌توان از این مورد اجتناب کرد. با این وجود، بسته به موردِ استفاده می‌توان از داده‌های خیلی کمی هم استفاده کرد.

بیش‌برازش :
مدلی است که داده‌های آموزشی را خیلی خوب مدل‌سازی می‌کند. این مسئله زمانی اتفاق می افتد که یک مدل جزئیات ونویزهای موجود در داده‌های آموزشی را یاد می‌گیرد و این مسئله تاثیر منفی بر عملکرد مدل روی داده‌های جدید دارد.

اما مدیریت مقادیر گمشده به چه معناست؟ اگر تعداد مقادیر گمشده در داده‌ها زیاد باشد (بالای ۵ درصد)، مدیریت مقادیر گمشده به معیارهای موفقیت خاصی نیاز خواهد داشت. به علاوه، این معیارها در مجموعه‌داده‌ های مختلف و حتی در کاربردهای مختلف از قبیل تشخیص، تقطیع، پیش‌بینی، طبقه‌بندی و… نقش متفاوتی ایفا می‌کنند.

باید به این نکته توجه داشت که هیچ راهکار بی‌نقصی برای مقابله با داده‌های گمشده یا ناموجود وجود ندارد. راه‌حل‌های مختلفی وجود دارند اما نوع مسئله حائز اهمیت است (تحلیل سری زمانی، یادگیری ماشین، رگرسیون و…).

نکته مهم درباره روش‌های پیش‌بینی‌کننده این است که این روش‌ها زمانی استفاده می‌شوند که مقادیر گمشده با سایر مقادیر معلوم ارتباط دارند. در کل، می‌توان از الگوریتم‌های مختلف یادگیری ماشین برای مشخص کردن داده‌های گمشده استفاده کرد.

این کار با تبدیل ویژگی‌های گمشده به برچسب انجام می‌شود به طوری که از ستون‌های بدون مقدار گمشده جهت پیش‌بینیِ ستون‌های دارایِ مقادیر گمشده استفاده می‌شود. بر اساس تجربه، اگر تصمیم دارید راه‌حلی مبتنی بر هوش مصنوعی ارائه دهید، احتمال دارد در جایی با کمبود داده یا داده‌های گمشده مواجه شوید. اما خوشبختانه، راه‌حل‌هایی برای تبدیل این محدودیت کمبود داده به فرصت وجود دارد.

کمبود داده

همان‌طور که در بالا اشاره شد، تخمینِ میزان حداقلیِ داده‌های لازم برای یک پروژه هوش مصنوعی غیرممکن است. واضح است که ماهیت پروژه، تاثیر شگرفی بر میزان داده‌هایی که نیاز دارید خواهد گذاشت. برای مثال، متون، تصاویر و فیلم‌ها معمولاً به داده بیشتری نیاز دارند. با این حال، باید چندین عامل دیگر را نیز برای تخمین دقیق در نظر گرفت.

تعداد دسته ها
خروجی مورد انتظارتان از مدل چیست؟ اساساً، هرقدر تعداد دسته‌ها کمتر باشد، نتیجه بهتر است.

عملکرد مدل
شاید دیتاست کوچک در اثبات مفهوم به قدر کافی خوب باشد، اما در تولید به داده‌های بیشتری نیاز است.

در کل، دیتاست‌های کوچک مستلزم مدل‌هایی هستند که پیچیدگی کمتری دارند تا از بیش‌برازش اجتناب شود.

راه‌حل‌های غیرفنی
پیش از اینکه راه‌حل‌های فنی را بررسی کنیم، بیایید ببینیم از چه راهکارهایی می‌توان برای ارتقای دیتاست و رفع کمبود داده استفاده کرد. شاید نیازی به گفتن نباشد اما قبل از اینکه کار هوش مصنوعی را آغاز کنید، سعی کنید با توسعه ابزارهای درونی، بیرونی و روش‌های گردآوری داده، تا آنجا که می‌توانید داده جمع کنید. اگر می‌دانید انجام چه کارهایی از الگوریتم یادگیری ماشین انتظار می‌رود، می‌توانید به ساخت یک سازوکار گردآوری داده بپردازید.

سعی کنید فرهنگ استفاده از داده واقعی را در سازمان رواج دهید

برای آغاز فرایند اجرای یادگیری ماشین، باید از داده‌های منبع باز استفاده کنیم. داده‌های فراوانی برای یادگیری ماشین وجود دارند که برخی از شرکت‌ها برای قرار دادن آن‌ها در دسترس دیگران اعلام آمادگی کرده‌اند. اگر به داده‌های بیرونی در پروژه‌تان احتیاج دارید، شاید بهتر باشد به همکاری با سایر سازمان‌ها بپردازید تا داده‌های مورد نیاز خود را به دست آورید. بی‌تردید شراکت با سایر سازمان‌ها هزینه‌هایی را به همراه خواهد داشت، اما دریافت داده‌های اختصاصی یک مانع طبیعی برای رقبا ایجاد می‌کند.

یک نرم‌افزار مفید بسازید، آن را منتشر و از داده‌ها استفاده کنید

یکی دیگر از روش‌هایی که استفاده کردیم، دادنِ دسترسی به کاربران برای استفاده از یک نرم‌افزار ابری بود. داده‌هایی که در ساخت نرم‌افزار به کار برده می‌شود، می‌تواند برای ایجاد مدل‌های یادگیری ماشین نیز استفاده شود. یکی از همکاران ما چندی پیش یک نرم‌افزار برای بیمارستان‌ها ساخت و آن را در دسترس همه قرار داد. ما به لطف آن نرم‌افزار، داده‌های زیادی را جمع‌آوری کردیم و توانستیم دیتاست منحصربه‌فردی برای راه‌حل یادگیری ماشین‌مان ایجاد کنیم.

وقتی مشتریان یا سرمایه‌گذاران متوجه شوند که خودتان مجموعه‌دادۀ منحصربه‌فردی را درست کرده‌اید، با دید دیگری به شما نگاه می‌کنند و این خیلی خوب است.کمبود داده

مجموعه‌داده‌های کوچک

برخی از رایج‌ترین روش‌هایی که می‌توان از آن‌ها برای ساخت مدل‌های پیش‌بینی‌کننده با مجموعه‌داده‌های کوچک استفاده کرد، به شرح زیر است.کمبود دادهدر کل، هرقدر الگوریتم یادگیری ماشین ساده‌تر باشد، از مجموعه‌داده‌های کوچک به شیوه بهتری یاد می‌گیرد. از دید یادگیری ماشین، داده‌های کوچک به مدل‌هایی با پیچیدگی کمتر نیاز دارند تا از بیش‌برازش دوری شود. الگوریتم «Naïve Bayes» از جمله ساده‌ترین طبقه‌بندی‌کننده‌ها به شمار می‌رود و قابلیت این را دارد تا از مجموعه‌داده‌های نسبتاً کوچک به خوبی یاد بگیرد.

 

روش‌های «Naïve Bayes»: مجموعه‌‌ای از الگوریتم‌های یادگیریِ بانظارت، بر پایه استفاده از قضیه بیزی با فرضِ ساده ابتداییاستقلال شرطی میان هر جفت از ویژگی ها به شرط دانستن مقدار متغیر کلاس.

امکان استفاده از سایر مدل‌های خطی و درخت‌های تصمیم وجود دارد. این مدل‌ها می‌توانند در مجموعه‌داده‌های کوچک عملکرد نسبتاً خوبی از خود بر جای بگذارند. اساساً، مدل‌های ساده قادرند بهتر از مدل‌های پیچیده‌تر (شبکه‌های عصبی) از مجموعه‌داده‌های کوچک یاد بگیرند، زیرا دنبال یادگیری کمتری هستند.

روش‌های بیزی در مجموعه‌داده‌های کوچک بهترین عملکرد را دارند، هرچند که عملکرد آن به چگونگی انتخاب فرض پیشین بستگی داد. از دید ما، «Naïve Bayes» و رگرسیون ستیغی بهترین مدل‌های پیش‌بینی هستند.کمبود دادهدر مجموعه‌داده‌های کوچک، به مدل‌هایی نیاز داریم که پارامترهای کمتری دارند (پیچیدگی کمتر). البته بسته به ماهیت مسائل کسب‌وکار و اندازه مجموعه‌داده، چندین راه‌حل دیگر هم وجود دارد.

یادگیری انتقال

چارچوبی است که از مدل‌ها یا داده‌های مرتبطی که وجود دارند استفاده می‌کند و در عین حال به ساختِ یک مدل یادگیری ماشین می‌پردازد. یادگیری انتقال از دانش حاصل از کاری که پیشتر یاد گرفته شده استفاده می‌کند تا عملکرد سیستم را بهبود بخشد.

بنابراین، کاهش میزان داده‌های آموزشیِ لازم را در دستور کار خود قرار می‌دهد. روش‌های یادگیری انتقال خیلی مفید هستند زیرا این فرصت را در اختیار مدل‌ها می‌گذارند تا با استفاده از دانشِ حاصل از مجموعه‌‌داده دیگر یا مدل‌های یادگیری ماشینیِ موجود پیش‌بینی کنند. روش‌های یادگیری انتقال باید زمانی مد نظر قرار گیرند که داده‌های آموزشیِ هدفِ کافی در اختیار نداشته باشیم و قلمروهای هدف و مبدأ میان مدل موجود و مدل مطلوب به یکدیگر شباهت دارند، اما کاملاً یکسان نیستند.کمبود داده
انباشتن ساده‌لوحانۀ مدل‌ها یا مجموعه‌داده‌های مختلف همیشه کارساز نیست! اگر مجموعه‌داده‌های موجود تفاوت زیادی با داده‌های هدف داشته باشند، در این صورت مدل‌ها یا داده‌های موجود، بر یادگیرندۀ جدید تاثیر منفی می‌گذارند.
یادگیری انتقال زمانی به خوبی عمل می‌کند که بتوانید از مجموعه‌داده‌های دیگر برای استنتاجِ دانش استفاده کنید، اما اگر هیچ داده‌ای نداشته باشید چه اتفاقی می‌افتد؟

اینجاست که تولید داده می‌تواند نقش مهمی ایفا کند و مشکل کمبود داده به چشم می‌آید. این روش در صورت نبودِ داده یا زمانی که داده‌های بیشتری تولید می‌کنید، استفاده می‌شود. در این مورد، داده‌های کمی که وجود دارند، اصلاح می‌شوند تا زمینه برای آموزش داده فراهم شود.
برای مثال، می‌توان با کراپ کردن یک عکس از خودرو چندین عکس از آن ایجاد کرد. متاسفانه، نبودِ داده‌های برچسب‌دارِ باکیفیت، یکی از بزرگ‌ترین چالش‌هایی است که متخصصان داده با آن مواجه هستند، اما استفاده از روش‌هایی مثل یادگیری انتقال و تولید داده، می‌تواند مشکلِ کمبود داده را حل کند.

یکی دیگر از کاربردهای رایج یادگیری انتقال، آموزشِ مدل‌ها در مجموعه‌داده‌های کاربران برای رفع مشکل شروع-سرد است. وقتی شرکت‌های SaaS برای محصولات یادگیری ماشین‌شان مشتریان جدید پیدا می‌کنند، معمولاً با این مشکل روبرو می‌شوند. در واقع، تا زمانی که مشتری جدید بتواند داده‌های کافی برای رسیدن مدل به عملکرد مناسب (که شاید چند ماه طول بکشد)، باید نکاتی را در نظر گیرد.

داده‌افزایی 

داده‌افزایی به معنای افزایش تعداد نقاط داده‌ای است. ما در تازه‌ترین پروژه‌مان از روش‌های داده‌افزایی برای افزایش تعداد عکس‌ها در مجموعه‌داده‌مان استفاده کرده‌ایم. داده‌افزایی از منظر داده‌های فرمت ردیف/ستون، به معنایِ افزایش تعداد ردیف‌ها یا اشیا است. ما به دو دلیل مجبور بودیم بر داده‌افزایی تکیه کنیم: زمان و دقت.

فرایندهای گردآوری داده، هزینه‌هایی به دنبال دارند. این هزینه می‌تواند در قالب پول، فعالیت‌های انسانی، منابع محاسباتی و زمان نمایان شود. متعاقباً، مجبور به افزودن داده‌ بودیم تا اندازه داده‌هایی که در طبقه‌بندی‌کننده‌های یادگیری ماشین به کار می‌بریم، افزایش پیدا کند و هزینه‌های مربوط به گردآوری داده جبران شود.کمبود داده

راه‌های زیادی برای داده‌افزایی وجود دارد

در این مورد، امکان چرخش تصویر، تغییر شرایط روشنایی و قطع متفاوت آن وجود دارد. پس می‌توان زیرنمونه‌های مختلفی برای یک تصویر ایجاد کرد. به این ترتیب، قادر خواهید بود از میزان بیش‌برازش طبقه‌بندی کننده کم کنید. با این حال، اگر در حال ایجاد داده‌های مصنوعی با استفاده از روش‌هایی مثل SMOTE هستید، احتمال دارد بیش‌برازش اتفاق بیفتد.

مدل بیش‌برازش شده به مدلی گفته می‌شود که خطاهای موجود در داده‌های که رو آنها آموزش دیده را نشان می‌دهد ویلی پیش‌بینیِ دقیقِی برای داده‌های مشاهده نشده ارائه نمیدهد. باید در هنگام توسعه راه‌حل هوش مصنوعی به این مورد توجه داشته باشید.کمبود داده

داده‌های مصنوعی

داده‌های مصنوعی به آن دسته از داده‌های ساختگی اشاره می‌کند که حاوی طرح‌ها و ویژگی‌های آماریِ یکسان با داده‌های واقعی است. اساساً، این داده‌ها به قدری واقعی به نظر می‌رسند که تفکیک‌شان تقریباً غیرممکن است. خب، هدف از به‌کارگیری داده‌های مصنوعی چیست؟ اگر به داده‌های واقعی دسترسی داریم، چه لزومی دارد از داده‌های مصنوعی استفاده کنیم؟

به‌کارگیری داده‌های مصنوعی، زمان سروکار داشتن با داده‌های خصوصی (بانکداری، مراقبت‌های پزشکی و غیره) هم رخ داده است. این موضوع باعث می‌شود استفاده از داده‌های مصنوعی به روشی امن و مطمئن تبدیل شود. داده‌های مصنوعی عمدتاً زمانی مورد استفاده قرار می‌گیرند که داده واقعی به مقدار کافی وجود نداشته باشد و با کمبود داده مواجه باشیم یا داده‌های واقعیِ کافی برای الگوهای مد نظر شما در دسترس نباشند.

روش «SMOTE» و «Modified – SMOTE» به تولید داده‌های مصنوعی می‌پردازند. «SMOTE» از نقاط داده‌ای اقلیت استفاده کرده و نقاط داده‌ای جدیدی ایجاد می‌کند که بین دو نقطه داده نزدیک واقع شده‌اند. این الگوریتم، فاصله میان دو نقطه داده را در فضای ویژگی محاسبه می‌کند؛ فاصله را به عددی تصادفی بین صفر و یک ضرب می‌کند و نقطه داده جدید را در این فاصله جدید قرار می‌دهد.

برای اینکه اقدام به ایجاد داده‌های مصنوعی کنید، باید از یک مجموعه آزمایشی برای تعریف مدل استفاده کنید که این کار به اعتبارسنجی نیاز دارد. آنگاه می‌توانید با تغییر پارامترهای دلخواه، داده‌های مصنوعی را ایجاد کنید.

کمبود داده

منبع: hooshio.com

نقش ربات سگ «بوستون داینامیکز» در کمک به بیماران کووید-۱۹


ربات سگ «Spot» شرکت بوستون داینامیکز را با قابلیت انجام کارهایی نظیر باز کردن درها، راه رفتن روی زمین ناهموار و تولید نقشه سه‌بعدی از محیط اطراف می‌شناسیم؛ اما بزرگ‌ترین قابلیت این ربات دوست‌داشتنی، می‌تواند کمک به کارکنان مراکز بهداشت و درمان برای مبارزه با بیماری کووید-۱۹ باشد.بوستون داینامیکز به تازگی اعلام کرده ربات‌های «Spot» این فرصت را به کادر درمان و پزشکان می‌دهند تا بتوانند بیماران را در بیمارستان زنان و بیمارستان بریگام بوستون، از راه دور تریاژ کنند. بوستون داینامیکز نرم‌افزارها و سخت‌افزارهای این ربات را در اختیار بیمارستان‌ها گذاشته و امیدوار است سایر پلتفرم‌های رباتیک بتوانند از این فناوری استفاده کنند.پلتفرم بوستون داینامیکز از یک دستگاه آیپاد و یک رادیو که روی ربات «Spot» تعبیه شده، استفاده می‌کند. اعضای کادر درمان می‌توانند ربات‌ها را به بخش‌های تریاژ هدایت کنند تا ارزیابی‌های لازم بر روی بیماران مبتلا به کووید-۱۹ انجام شود. به این ترتیب پزشکان و پرستاران این فرصت را پیدا می‌کنند تا از فاصله‌ای مناسب یا حتی از خانه، با بیماران صحبت کنند. شرکتِ سازندۀ این ربات مدعی شده با استفاده از آن، دست‌کم یک عضو از کادر درمان کمتر در معرض ویروس کرونا قرار می‌گیرد. همچنین باعث می‌شود تجهیزات محافظتی و پزشکی به میزان کمتری استفاده شوند. 

بوستون داینامیکز باید چگونگی دریافت اطلاعات مربوط به علائم حیاتی بدن از راه دور را به شیوه بهتری بررسی کند. این علائم حیاتی عبارتند از دمای بدن، میزان تنفس، ضربان قلب و اشباع‌شدگی اکسیژن. این شرکت در نظر دارد تا از فناوری دوربین گرمایی استفاده کند و در همین راستا روش‌های مختلفی را برای اندازه‌گیریِ تغییرات انقباض رگ‌های خونی، مورد آزمایش قرار دهد.

بوستون داینامیکز امیدوار است در آینده‌ای نزدیک ربات «Spot» بتواند برای کشتن ذرات ویروس و ضدعفونی کردنِ سطوح در فضاهایی مثل اتاق‌های بیمارستانی و ایستگاه‌های مترو استفاده شود. بوستون داینامیکز همچنین به این نکته اشاره کرده که این سیستم با ربات‌های چرخ‌دار نیز قابل استفاده است. محققانِ این شرکت امیدوارند سایر پلتفرم‌های رباتیک متحرک نیز بتوانند از نرم‌افزارها و سخت‌افزارهای یکسانی برای کمک به کادر پزشکی در راه مبارزه با بیماری فراگیر کووید-۱۹ استفاده کنند. در حال حاضر، گفتگوها با شرکت کانادایی «Clearpath» برای ارائه انبوه این فناوری ادامه دارد.

منبع: hooshio.com

گذشته، حال و آینده هوش مصنوعی


الگوریتم‌های ابَرهوشمند تمامی مشاغل را تصاحب نخواهند کرد، اما روند یادگیری آن‌ها سریع‌تر از هر زمان دیگری است. این الگوریتم‌ها از تشخیص بیماری گرفته تا کارهای تبلیغاتی مورد استفاده قرار می‌گیرند.
این تصور که الگوریتم‌های ابرهوشمند تمامی مشاغل را تصاحب کرده و به طور کامل جای انسان را اِشغال خواهند کرد، اشتباه است؛ اما اخیراً شاهد هوشمندتر شدنِ نرم‌افزارها هستیم. شما می‌توانید به پاس این پیشرفت، حین مکالمه تصویری با دوستان خود از شکلک‌های مختلف برای چهره خود استفاده کنید. همچنین می‌توانید از گوینده هوشمندتان بخواهید دستمال کاغذی بیشتری سفارش دهد.
سرمایه‌گذاری‌های عظیم شرکت‌های فن‌آوری در هوش مصنوعی، باعث تغییر زندگی و ابزارهای الکترونیکی ما شده است. انتظار می‌رود آینده انسان به شدت وابسته به هوش مصنوعی باشد. پیشرفت‌های حوزه «یادگیری ماشین» به رشد هوش مصنوعی کمک کرده است. در یادگیری ماشین، رایانه‌ها آموزش داده می‌شوند تا کارها را بر اساس نمونه‌ها انجام دهند؛ نَه اینکه صرفاً به برنامه‌نویسی توسط انسان مُتکی باشند.
روشِ موسوم به یادگیری عمیق باعث تقویت قابل‌توجه یادگیری عمیق شده است. شما می‌توانید از «لی سِدول» دارنده ۱۸ عنوان بین‌المللی در بازی پیچیدۀ «Go» بخواهید تا در این خصوص با شما صحبت کند. نرم‌افزاری به نام «آلفاگو» در سال ۲۰۱۶ این قهرمان بین‌المللی را شکست داد.
نتیجۀ قدرتمندتر شدن هوش مصنوعی عمدتاً در تولید ابزارهای الکترونیکی جدید، تجربه‌هایی مثل گوینده‌های هوشمند و یا قابلیت باز کردن قفل گوشی‌های آیفون با فن‌آوری تشخیص چهره متبلور می‌شود. اما هوش مصنوعی سایر بخش‌های زندگی انسان را نیز تحت تاثیر قرار داده است. مراقبت‌های پزشکی یکی از این بخش‌هاست. بیمارستان‌های هند در حال آزمایشِ نرم‌افزاری هستند که عکس شبکیه افراد را به منظور یافتن علائمی از بیماری شبکیه بررسی می‌کند؛ این بیماری غالباً آنقدر دیر تشخیص داده می‌شود که فرد قدرت بینایی خود را از دست می‌دهد. یادگیری ماشین نقشی حیاتی در پروژه‌های رانندگی خودران دارد که طی آن، وسیله نقلیه اطلاعات را از محیط پیرامون خود گرفته و اقدام به تصمیم‌گیری می‌کند.
شواهد و قرائن حاکی از آن است که هوش مصنوعی می‌تواند سطح شادی و سلامتی را افزایش دهد. اما باید جانب احتیاط را نیز رعایت کرد. مواردی که الگوریتم‌ها در آن باعث افزایش تعصبات اجتماعی حول نژاد یا جنسیت شده، نشان می‌دهد که آیندۀ مبتنی بر هوش مصنوعی نمی‌تواند الزاماً بهتر باشد.

آینده هوش مصنوعی

آغاز هوش مصنوعی

هوش مصنوعی کار خود را در قالب یک پروژۀ تعطیلات آغاز کرد. استاد دانشگاه دارتموث «جان مک‌کارتی» عبارت هوش مصنوعی را در تابستان سال ۱۹۵۶ ابداع کرد. وی از گروه کوچکی دعوت به عمل آورد تا چند هفته برای توسعه ماشین‌ها به منظور انجام کارهای پیچیده‌ای مثل استفاده از زبان، وقت بگذارند. مک‌کارتی خیلی امیدوار بود که ماشین‌هایی در حد انسان بسازد. او در جایی نوشته بود: «ما باور داریم که اگر گروهی منتخب و کاربلد از دانشمندان را گرد هم آوریم، می‌توانیم به پیشرفت‌های بزرگی در این زمینه برسیم.»

شکل‌گیری و تحول هوش مصنوعی، به ترتیب در این سال‌ها به وقوع پیوست:
سال ۱۹۵۶: پروژه تحقیقات تابستانی دانشگاه دارتموث با محوریت «هوش مصنوعی» باعث ابداع رشته جدیدی شد که با تولید نرم‌افزارهای هوشمند سروکار دارد.
سال ۱۹۶۵: «جوزف وایزنبوم» در MIT موفق به ساخت «اِلیزا» نخستین ربات مکالمه شد. این ربات نقش یک روان‌درمان را ایفا می‌کرد.
سال ۱۹۷۵: «مِتا-درندرال» نرم‌افزاری است که در استنفورد برای انجام تحلیل‌های شیمیایی ساخته شد. این نرم‌افزار با رایانه اکتشافاتی انجام داد که در یک مجله داوری‌شده منتشر شد.
سال ۱۹۸۷: یک دستگاه وَن مرسدس بنز به کمک دو دوربین و چند راننده رایانه‌ای، موفق شد مسافت ۲۰ کیلومتری را در یکی از بزرگراه‌های آلمان با سرعت بیش از ۵۵ مایل طی کند. مهندسی به نام «ارنست دیکمانس» سرپرستی این پروژه دانشگاهی را بر عهده داشت.
سال ۱۹۹۷: رایانه «Deep Blue» متعلق به «IBM» موفق به شکست گَری کاسپاروف قهرمان شطرنج جهان شد.
سال ۲۰۰۴: پنتاگون «چالش گرَند دارپا» را کلید زد؛ مسابقه خودروهای رباتیک در صحرای موجاوه که تحولی در صنعت اتومبیل‌های خودران پدید آورد.
سال ۲۰۱۲: محققان در حوزه‌ای تحت عنوان یادگیری عمیق، زمینه را برای علاقه‌مندیِ شرکت‌ها به هوش مصنوعی فراهم آوردند. آنان نشان دادند که ایده‌هایشان می‌تواند تشخیص عکس و گفتار را دقیق‌تر کند.
سال ۲۰۱۶: «آلفاگو» محصول شرکت گوگل موفق به شکست قهرمان جهان در بازی «Go» شد.

مک‌کارتی بعدها اذعان داشت که بیش از حد خوش‌بین بوده است. اما کارگاه تحقیقاتی به محققان کمک کرد تا به رویاپردازی در خصوص طراحی یک رشته دانشگاهی مناسب برای ماشین‌های هوشمند ادامه دهند. محققان در کارهای اولیه خود غالباً بر حل مسائل انتزاعی در ریاضی و منطق بسنده کردند، اما طولی نکشید که هوش مصنوعی نتایج امیدوارکننده‌ای در انجام کارهای انسان نشان داد.
در اواخر دهه ۱۹۵۰، «آرتور ساموئل» نرم‌افزارهایی را طراحی کرد که انجامِ بازی «چکر» را یاد گرفت. یکی از این نرم‌افزارها در سال ۱۹۶۲ موفق به شکست یکی از اساتید این بازی شد. در سال ۱۹۶۷، نرم‌افزاری به نام دندرال نشان داد که می‌تواند از شیوه تحلیل داده‌های جرم-طیف‌سنجیِ شیمیدان‌ها در خصوص ترکیب نمونه‌های شیمیایی تقلید کند. پیشرفت حوزه هوش مصنوعی با توسعه راهبردهای مختلف برای ساخت ماشین‌های هوشمندتر همراه بود. برخی از محققان تلاش کردند دانش انسانی را در کدنویسی به کار گرفته یا قوانینی برای کارهایی نظیر درک زبان وضع کنند.
برخی دیگر از محققان نیز از اهمیت یادگیری برای انسان و هوش حیوانات اِلهام گرفتند. آن‌ها سیستم‎هایی ایجاد کردند که با گذشت زمان، عملکرد بهتری به جا می‌گذاشتند. در این راستا، از شبیه‌سازیِ تکامل یا یادگیری از روی داده‌های نمونه کمک گرفتند. به مجرد اینکه رایانه‌ها توانستند کارهای بیشتری که قبلاً برای انجام آن‌ها به نیروی کار انسانی نیاز بود انجام دهند، هوش مصنوعی نیز به سرعت مسیر پیشرفت را طی کرد.
یادگیری عمیق که سوخت اصلیِ پیشرفت هوش مصنوعی به شمار می‌آید، اِحیای یکی از قدیمی‌ترین ایده‌ها در هوش مصنوعی است. در این روش، داده‎ها از طریق تارهای ریاضی انتقال داده‌ می‌شوند. محققان از چگونگی کارکرد سلول‌های مغز در طراحی این شبکه الهام گرفته و نام آن را شبکه‌های عصبی مصنوعی نامگذاری کرده‌اند. وقتی شبکه‌ای به پردازش داده‌های آموزشی می‌پردازد، پیوندهای میان بخش‌های مختلف شبکه تنظیم شده و قابلیت تفسیر داده‌های آتی فراهم می‌شود.
مدت زیادی از تشکیل کارگاه دارتموث نگذشته بود که شبکه‌های عصبی مصنوعی به ایده‌ای متداول و پرکاربرد در هوش مصنوعی تبدیل شدند. برای مثال، «Perceptron Mark 1» محصولی از سال ۱۹۵۸، توانست اَشکال هندسی مختلف را از هم تفکیک کند. روزنامه نیویورک تایمز از آن با تیتر «جنین رایانه‌ای که برای خواندن و عاقل‌تر شدن طراحی شده است» یاد کرد. اما پس از اینکه «ماروین مینسکی» از MIT در سال ۱۹۶۹ کتاب تاثیرگذاری به چاپ رساند، شبکه‌های عصبی محبوبیت خود را از دست دادند. او در کتاب خود به این مسئله اشاره کرده بود که این شبکه‌ها فاقد قدرت کافی هستند.
این ادعا عده زیادی را متقاعد نکرده بود و محققان برای چند دهه این روش را به کار بردند. یک سری آزمایشات در سال ۲۰۱۲ نشان داد آن دسته از شبکه‌های عصبی که حاوی حجم بالایی از داده و تراشه‌های رایانه‌ای قدرتمند هستند، می‌توانند قدرت ادراک ماشین‌ها را تقویت کنند. محققان دانشگاه تورنتوی کانادا در نتیجه‌ای قابل‌توجه، رقبا را در یک مسابقه سالیانه شکست دادند. در این مسابقه، نرم‌افزار مسئول دسته‌بندی تصاویر بود. در یک مورد دیگر، محققانی از شرکت‌های گوگل، IBM و مایکروسافت به همکاری با یکدیگر پرداخته و نتایج تحقیق‌شان را منتشر کردند. آنان نشان دادند که یادگیری عمیق می‌تواند پیشرفت چشمگیری در دقت تشخیص گفتار به ارمغان آورد. شرکت‌های فن‌آوری هر چه در توان داشتند به کار بستند تا کارشناسان یادگیری عمیق را سریعاً استخدام

کنند.

 

آینده هوش مصنوعی

آینده هوش مصنوعی

یقیناً پیشرفت هوش مصنوعی می‌تواند جهان را تغییر دهد. شرکت‌های بزرگ فن‌آوری از قبیل گوگل، مایکروسافت و آمازون نیروهای هوش مصنوعی کاربلدی را استخدام کرده و خود را به رایانه‌های قدرتمندی مجهز کرده‌اند تا عملکرد موفق‌تری در حوزه تبلیغات داشته و خرید بعدی مشتریان را پیش‌بینی کنند. آنان همچنین با دعوت از سایر افراد برای اجرای پروژه‌های هوش مصنوعی در شبکه‌های خود در تلاش هستند تا کسب درآمد کنند. این اقدام می‌تواند زمینه‌سازِ پیشرفت در حوزه‌هایی نظیر مراقبت‌های پزشکی یا امنیت ملی شود. پیشرفت سخت‌افزارهای هوش مصنوعی، تمرکز بر دوره‌های یادگیری ماشین و پروژه‌های یادگیری ماشین منبع باز می‌تواند گسترش دامنۀ هوش مصنوعی در صنایع دیگر را سرعت بخشد.
انتظار می‌رود هوش مصنوعی بیش از پیش در خدمات و وسایل الکترونیکی به کار برده شود. شرکت‌های گوگل و آمازون ابراز امیدواری کرده‌اند که پیشرفت یادگیری ماشین باعث قوی‌تر شدنِ گوینده‌های هوشمند و دستیارهای مجازی‌شان خواهد شد. برای مثال، آمازون وسیله‌هایی مجهز به دوربین دارد که مالکان‌شان و جهان پیرامون آن‌ها را مورد نظارت قرار می‌دهند. هوش مصنوعی فرصت‌های تجاری متعددی را به ارمغان آورده و همین عامل باعث ترغیب طیف وسیعی از محققان در این حوزه شده است.
تعداد آزمایشگاه‌هایی که به تولید ماشین‌های هوشمند می‌پردازند، روند صعودی به خود گرفته است و شاهد افزایش سرمایه‌گذاری‌ها در این زمینه هستیم. کارها و پروژه‌های زیادی وجود دارد که می‌توان بر روی آن‌ها کار کرد. علی‌رغم پیشرفت‎های اخیر در هوش مصنوعی و پیش‌بینی‌های گسترده درباره آینده آن، باز هم کارهای زیادی وجود دارند که ماشین‌ها قادر به انجام‌شان نیستند؛ مثل درک فحوای کلام، استدلال با عقل سلیم و یادگیری مهارت جدید از روی یک یا دو نمونه. اگر قرار باشد نرم‌افزارهای هوش مصنوعی این کارها را انجام دهند، باید خود را به سطحی نزدیک با هوشِ چندمنظوره، وفق‌پذیر و خلاق انسان برسانند. یکی از پیشروان یادگیری عمیق به نام «گئوف هینتون» از شرکت گوگل ادعا می‌کند پیشرفت در این چالش بزرگ نیازمند تجدیدنظر درباره برخی از اصول این حوزه می‌باشد.
با قدرتمندتر شدنِ سیستم‌های هوش مصنوعی، باید شاهد انجام تحقیقات و بررسی‎‌های بیشتر بر روی آن‌ها باشیم. استفاده دولت‌ها از نرم‌افزارها در حوزه‌هایی نظیر جرم‌شناسی معمولاً با خطا و نقص همراه است. هوش مصنوعی قدرتمند قابلیت ایجاد مشکلات بدتری را هم دارد. در مواردی دیده شده که هوش مصنوعی با تعصب با زنان یا سیاه‌پوست‌ها برخورد می‌کند. گروه‌های مدنی و حتی خود صنعت فن‌آوری در حال بررسی قوانین و دستورالعمل‌هایی در خصوص ایمنی و اخلاق هوش مصنوعی هستند. ما برای اینکه از منافع ماشین‌های هوشمند بهره‌مند شویم، باید اطلاعات بیشتری درباره آن‌ها کسب کرده و عملکرد هوشمندانه‌ای در برخورد با آن‌ها داشته باشیم.

آیا ما آماده برخورد صمیمانه با اندرویدها هستیم؟

اگر ماشین‌های مصنوعیِ ساخته انسان درست مانند ما انسان‌ها رفتار کنند و شکل و شمایل‌شان هم شبیه ما باشد، چه اتفاقی خواهد افتاد؟ «هیروشی ایشی گورو» با به‌کارگیری مهندسی معکوس در نظر دارد اندرویدهایی بسازد تا چگونگی شکل‌گیری روابط را یاد بگیرد. تحقیقات او می‌تواند برای ما پیش‌نمایشی از آن دسته مسائلی را که با تکامل علم رباتیک و هوش مصنوعی با آنها روبرو خواهیم شد، فراهم کند. محدودیت‌های هوش مصنوعی می‌تواند مانند قابلیت‌هایش حائز اهمیت باشد.
علی‌رغم پیشرفت‌هایی که در سال‌های اخیر در تشخیص عکس به‌دست آمده، WIRED دریافت که شرکت گوگل به الگوریتم‌های خود برای عدم ادغام میمون‌ها و انسان سیاه‌پوست اطمینان ندارد. با توجه به اینکه شرکت‌ها و دولت‌ها با آغوش باز به استقبالِ هوش مصنوعی قدرتمند می‌روند، محققان با یک سری پرسش‌های اخلاقی در خصوص سیستم‌های هوش مصنوعی و چگونگی استفاده از آن‌ها مواجه‌اند.

منبع: hooshio.com

شکست بازیکنان حرفه‌ای ماژونگ توسط هوش مصنوعی Suphx مایکروسافت

شکست بازیکنان حرفه‌ای ماژونگ توسط هوش مصنوعی Suphx مایکروسافت

هوش مصنوعی Suphx مایکروسافت می‌تواند بازیکنان حرفه‌ا‌ی ماژونگ را پس از ۵۰۰۰ بازی شکست دهد.

 

به لطف پیشرفت‌های الگوریتمی و قدرت محاسباتی ارزان خصوصا در گجت‌های همراه، هوش مصنوعی اکنون به یک قهرمان شکست‌ناپذیر در بازی‌هایی همچون شطرنج، تخته چینی Go، بازی Montezuma’s Revenge و غیره تبدیل شده است. حال در پی پیروزی‌های مکرر ماشین بر انسان در این بازی‌ها، مایکروسافت از یک سیستم هوش مصنوعی موسوم به Suphx خبر داده که به نظر توانایی شکست قهرمانان بازی ماژونگ را دارد!

“از زمانی که محققان مطالعه هوش مصنوعی را آغاز کردند، تلاش‌های زیادی برای ساخت یک ماشین با توانایی انجام بازی‌های مختلف شده است”. این نقل قول دکتر هسایو ووئن هان، مدیریت واحد تحقیق و توسعه مایکروسافت در آسیا است. به گفته او، ماژونگ یک بازی تخته‌ای سخت نسبت به بازی‌های دیگر است، بنابر این توانایی بازی کردن آن هم یک نوع هنر به شمار می‌آید و هم علم. یک بازیکن حرفه‌ای ماژونگ به ترکیبی از مهارت‌های مشاهده، شهود، راهبرد، محاسبه و شانس تکیه می‌کنند؛ مواردی که هوش مصنوعی درآنها با چالش‌های متعددی رو به رو است.

به گفته دکتر هان و همکاران او، ماژونگ مثل نوعی بازی اطلاعات ناقص است؛ یعنی که درطول بازی، برخی از فاکتورها برای بازیکن همچنان ناشناخته هستند. برای نمونه، بازیکن ماژونگ باید پازل‌های دیده نشده حریف را در نظر گرفته و با توجه به وضعیت موجود، تصمیم‌گیری کنند. برای غلبه بر این مشکل، محققان از هزاران بازیکن Tenhou (یک پلتفرم رقابتی آنلاین ماژونگ با بیش از ۳۰۰ هزار کاربر) درخواست کردند تا با سیستم هوش مصنوعی Suphx بازی کنند تا این سیستم بتواند به طور خودکار، استراتژی‌های متداول این بازی را یاد بگیرد. بعد از این اقدام، Suphx توانست به سرعت سبک بازی کردن خود را توسعه داده و تعادلی میان حرکات حمله و دفاع ایجاد کند.

پس از انجام ۵۰۰۰ بازی در بازه زمانی چهار ماهه، Suphx به سطح فوق پیشرفته رسیده و اخیراً به نخستین سیستم هوش مصنوعی تبدیل شده که توانسته با رتبه دهم Tenhou به رقابت می‌پردازد؛ کاری که تا به حال فقط ۱۸۰ انسان موفق به انجام آن شده‌اند. همه اینها خبر از پیروزی سیستم هوش مصنوعی Suphx مایکروسافت می‌دهند، اما بد نیست بدانید که موفقیت ربات‌های هوش مصنوعی به همینجا ختم نمیشود؛ ربات Dota2 متعلق به Open AI موفق به شکست ۹۹.۴ درصد از بازیکنان در رقابتهای آزاد شده بود. هوش مصنوعی Alpha Star متعلق به DeepMind نیز پیش از این، بازیکنان حرفهای StarCraft II را از پیش رو برداشته بود و در اوایل ماه جاری، هوش مصنوعی Honor Of Kings متعلق به Tencen تیمی از بازیکنان حرفها‌ی را شکست داد. درنهایت مرکز تحقیقات هوش مصنوعی فیسبوک و دانشگاه کارنگی ملون در ماه جولای، Pluribus را معرفی کردند، یک سیستم هوش مصنوعی که پوکر بازی می‌کند و ادعای فیس‌بوک، می‌تواند ۱۵ بازیکن برتر پوکر در تگزاس را شکست دهد.

این پیشرفت‌ها لزوما محدود به بهبود طراحی بازی‌ها نمی‌شوند، بلکه در حقیقت به ما یادآوری می‌کنند که شاید پیشرفت این سیستم‌ها روزی منجر به تشخیص بیماری‌ها، پیش‌بینی ساختارهای پروتئینی پیچیده و بررسی سیتی اسکن منجر گردد. دمیس هاسابیس، یکی از بنیان‌گذاران DeepMind متعلق به شرکت Alphabet در مصاحبه‌ای گفت: «دلیل اینکه ما خودمان و همه این بازی‌ها را می‌آزماییم این است که میت‌وان از این روش برای توسعه الگوریتم‌ها استفاده کرد. ما در حال ساخت الگوریتم‌هایی هستیم که در دنیای حقیقی کاربرد داشته و می‌توان از آن‌ها برای حل مسائل چالش‌برانگیز استفاده نمود.» هوش مصنوعی امروزه برای طراحی چنین بازی‌هایی استفاده شده، اما این اتفاق سرآغازی برای پیشرفت‌های هوش مصنوعی در آینده خواهد بود.

منبع: hooshio.com