مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

عقل سلیم در هوش مصنوعی چگونه دنیای ما را تغییر می‌دهد؟


دیوید فروچی کامپیوتری ساخت که در مسابقه تلویزیونی Jeopardi! پیروز شد! از آن زمان به بعد، فروچی وقت خود را صرف پرداختن به مسئله‌ای چالش برانگیزتر کرده است.دیوید فروچی، سازنده واتسون – ماشینی که به IBM تعلق دارد و Jeopardy! بازی می‌کند- برای ماشینی که به تازگی ساخته‌ است، داستانی کودکانه تعریف می‌کند.


در این داستان، فرناندو و زویی چند گیاه می‌خرند. فرناندو گیاه خود را لب پنجره می‌گذارد و زویی گیاه خود را در یک اتاق تاریک می‌گذارد. پس از گذشت چندین روز، گیاه فرناندو سبز و شاداب است اما برگ‌های گیاه زویی زرد شده‌اند. زویی گیاه خود را به لب پنجره منتقل می‌کند و گیاه او هم رشد می‌کند و شاداب می‌شود.
یک سؤال بر روی صفحه نمایش مقابل فروچی ظاهر می‌شود: «آیا فرناندو برای این‌که می‌خواهد گیاهش سر سبز و شاداب شود، آن را لب پنجره می‌گذارد؟ از پنجره نور خورشید به داخل می‌تابد و گیاه باید شاداب و سرسبز باشد.
سیستم هوش مصنوعی فروچی با پرسیدن این سؤال قصد دارد ساز و کار دنیای پیرامون خود را یاد بگیرد. بی‌شک من و شما می‌دانیم چرا فرناندو گیاه خود را لب پنجره گذاشته است. اما درک این موضوع برای سیستم هوش مصنوعی به طور شگفت‌انگیزی دشوار است.
فروچی و شرکت وی موسوم به Elemental Cognition قصد دارند به ماشین‌ها آموزش دهند دانش روزمره‌ای که امکان برقراری ارتباط، استدلال و گشت‌وگذار در محیط پیرامون را برای انسان‌ها فراهم می‌کند، کسب کنند و آن را به کار ببندد و امیدوارند از این طریق بتوانند نواقص و کاستی‌های هوش مصنوعی کنونی را برطرف کنند. استفاده از استدلال عقلانی به حدی برای انسان‌ها آسان است و به صورت مکرر از آن استفاده می‌کنند که به ندرت متوجه وجود چنین‌ چیزی می‌شوند.
ارنست دیویس ، یکی از اساتید دانشگاه نیویورک که چندین دهه از عمر خود را صرف مطالعه بر روی این مسئله کرده، معتقد است عقل سلیم برای پیشرفت و ترقی هر چیزی از زبان گرفته تا روباتیک لازم و ضروری است. به گفته وی عقل سلیم «در مرکز اکثر کارهایی قرار دارد که می‌خواهیم با هوش مصنوعی انجام دهیم.»
دیویس معتقد است برای آن‌که ماشین‌ها بتوانند هوشمندی حقیقی و جامعی داشته باشند باید مفاهیم پایه‌ای همچون زمان، رابطه علت و معلولی و تعامل اجتماعی را فرا بگیرند. به عقیده وی «این مانع بزرگی است که رویکردهای کنونی مشکلات جدی با آن دارند.»
تازه‌ترین موج پیشرفت در زمینه هوش مصنوعی که در نتیجه ادغام یادگیری ماشین و کلان‌داده حاصل شده، گجت‌هایی را برای ما به ارمغان آورده که به دستورات و فرامین صوتی پاسخ می‌گویند و منجر به ساخت نمونه‌هایی از ماشین‌های خودران شده که می‌توانند اشیای حاضر مسیر پیش‌رو را تشخیص دهند. تمامی پیشرفت‌هایی که در این زمینه حاصل شده خارق‌العاده هستند اما از عقل سلیم برخوردار نیستند. اَلِکسا و سیری با بهره‌گیری از ویکی‌پدیا می‌توانند اطلاعاتی در مورد گونه‌ای گیاه در اختیار شما قرار دهند اما هیچ کدام نمی‌دانند اگر گیاهی را در یک اتاق تاریک بگذارید، چه اتفاقی می‌افتد. برنامه‌ای که آموزش می‌بیند تا موانع موجود در جاده را تشخیص دهد، به طور معمول نمی‌داند چرا ممانعت از تصادف با عابرین مهم‌تر از گیر نکردن در ترافیک‌های سنگین است.

آیا روزی فرا می‌رسد که ماشین‌ها بتوانند چیزهایی که می‌خوانند را درک کنند؟ تحقق این هدف کار دشواری است.

-دیوید فروچی، Elemental Cognition

دوباره به داستان کامپیوتر فروچی برمی‌گردیم. پژوهش‌گر در پاسخ به سؤالی که سیستم راجع به گیاه فرناندو پرسیده بر روی گزینه «بله» کلیک می‌کند. در جایی از سِرور، یک برنامه هوش مصنوعی به نام CLARA این اطلاعات را به کتاب‌خانه حقایق و مفاهیم – نوعی دانش عقل سلیم مصنوعی- اضافه می‌کند. CLARA شبیه به کودکی که کنجکاوی‌اش پایانی ندارد، به صورت مکرر از فروچی سؤالاتی راجع به داستان گیاه می‌پرسد و تلاش می‌کند ساز‌و‌کار محیط پیرامون را «درک کند». CLARA مخفف واژه Collaborative Learning and Reading Agent است. سؤالی که فروچی مطرح می‌کند این است که « آیا روزی فرا می‌رسد که ماشین‌ها بتوانند چیزهایی که می‌خوانند را درک کنند؟»، وی در ادامه می‌گوید « تحقق این هدف کار دشواری است و البته هدف نهایی Elemental Cognition هم همین است.»
فروچی از مدتی قبل به مطالعه و بررسی این مشکل پرداخته است. یک دهه قبل، زمانی‌که فروچی پروژه توسعه واتسون، متعلق به IBM، را رهبری می‌کرد، توسعه و ساخت کامپیوتری که بتواند به سؤالات مسابقه Jeopardy! پاسخ دهد، امری غیرممکن به نظر می‌رسید. با این حال، واتسون توانست در سال ۲۰۱۱ چندین نفر از برندگان این مسابقه تلویزیونی که تبلیغات زیادی راجع به آن شده بود را شکست دهد. واتسون حجم بالایی از متون را تجزیه و تحلیل می‌کند تا اطلاعات مهم نهفته در جزئیات پیش‌پاافتاده که دربردارنده پاسخ سؤالات مسابقه Jeopardy! هستند را پیدا کند. برنده‌شدن در این مسابقه دستاورد بزرگی برای هوش مصنوعی بود اما عدم درک کامل و صحیح هوش مصنوعی از مسائل و موضوعات نیز به وضوح آشکار بود. برای مثال، این ماشین در پخش زنده، یکی از سؤالات مربوط به بخش «شهرهای آمریکا» را با «تورونتو چیست » پاسخ داد.
به گفته فروچی نواقص و کاستی‌های واتسون و گزافه‌پردازی‌های رسانه‌ها راجع به این ماشین، او را بر آن داشته تا ماشین‌هایی بسازد که درک بهتری از دنیا و محیط پیرامون داشته باشند. از آن زمان به بعد IBM واتسون را به یک برند تجاری تبدیل کرده که به انواع گوناگونی از فناوری‌ها اشاره دارد که بسیاری از آن‌ها در توسعه و ساخت ماشین اصلی کاربردی نداشته‌اند.
یک سال پس از مسابقه Jeopardy! فروچی از تیم IBM جدا شد تا شرکت Elemental Cognition را تأسیس کند. تا به امروز Bridgewater Associates منابع مالی این شرکت را تأمین کرده است؛ Bridgewater Associates یک صندوق پوشش ریسک است که توسط رِی دالیو ایجاد شده که سرمایه‌ای معادل ۱۶۰ میلیارد دلار و سه حزب دیگر را مدیریت می‌کند. Elemental Cognition در محوطه Bridgewater واقع شده است؛ Bridgewater در جنگل‌های سرسبز وست‌‌پورت ، کنتیک واقع شده و منظره‌ای رو به دریاچه دارد.
مدت زمان کوتاهی پس از پیروزی واتسون تغییر و تحولاتی در حوزه فناوری هوش مصنوعی ایجاد شد. یادگیری عمیق که با تغذیه حجم بالایی از داده‌ها به کامپیوترها شناسایی چهره، رونویسی گفتار و غیره را آموزش می‌داد به ابزاری بسیار قدرتمند تبدیل شد و به شیوه‌های گوناگونی مورد استفاده قرار گرفت.
طی دو سال گذشته، یادگیری عمیق در زمینه درک زبان پیشرفت‌های چشم‌گیری داشته است. تغذیه حجم بالایی از متون به نوع خاصی از شبکه‌های عصبی مصنوعی منجر به ساخت مدلی می‌شود که می‌تواند به سؤالات پاسخ دهد و یا متونی ایجاد کند که انسجام بالایی دارند. تیم‌های مستقر در Google، Baidu، Microsoft و OpenAI مدل‌های بزرگ‌تر و پیچیده‌تری ساخته‌اند که در درک زبان به مراتب عملکرد بهتری دارند.
با این حال این مد‌ل‌ها از عقل سلیم برخوردار نیستند. برای مثال، تیم فروچی داستان فرناندو و زویی را به یک مدل پیشرفته زبان دادند و از او خواستند جمله مقابل را کامل کند: « زویی گیاهش را لب پنجره‌ای قرار می‌دهد که از آن نور خورشید به داخل می‌تابد. به زودی …» این مدل متوجه نشد که نور خورشید برای رشد گیاه لازم است و در نتیجه بر مبنای تطبیق آماری الگوها عبارت‌های نامفهومی برای تکمیل جمله ایجاد کرد:« چیزی ناخوشایند پیدا کرد»، « در پنجره کود دیده می‌شود» و « از اتاق خواب یک گیاه کم شده است.»

 

به نظر می‌رسد از نکته‌ای جدی غافل مانده‌ایم

-ارنست دیویس، دانشگاه نیویورک

CLARA قصد دارد پا را فراتر از این بگذارد و با بهره‌گیری از قوانین منطقی صریح، برای مثال گیاهان برگ دارند و به نور احتیاج دارند، تکنیک‌های یادگیری عمیق را با شیوه‌های قدیمی ماشین‌ها برای فراگیری دانش ترکیب کند. CLARA برای تشخیص مفاهیمی از جمله اسم و فعل‌های در جملات از روش‌های آماری استفاده می‌کند. علاوه بر این CLARA دارای قطعاتی به نام «دانش مرکزی » است؛ برای مثال اتفاقات در مناسب روی می‌دهند و موجب می‌شوند اتفاقات دیگری روی دهد.
دانش راجع به برخی موضوعات خاص را Mechanical Turkers در اختیار سازندگان CLARA قرار می‌دهد و سپس آن‌ها دانش کسب‌شده را به CLARA تغذیه می‌کنند. برای مثال دانش راجع به موضوعات خاص ممکن است شامل حقایقی از این قبلی باشد: نور به رشد گیاه کمک می‌کند و وجود پنجره موجب می‌شود نور خورشید به داخل راه پیدا کند. در مقابل، یک مدل یادگیری عمیق که از داده‌ها و اطلاعات صحیح تغذیه می‌شود ممکن است بتواند و یا شاید نتواند به سؤالاتی که راجع به گیاه‌شناسی پرسیده می‌شود پاسخ صحیح بدهد.
از آن‌جایی‌که پیش از این نیز افرادی تلاش کرده‌اند به صورت دستی موتورهای دانش بسازند و تلاش آن‌ها موفقیت‌آمیز نبوده است، تغذیه تمامی دانش عقل سلیم به سیستم به صورت دستی فرایندی زمان‌بر خواهد بود. از این روی CLARA حقایقی که به او تغذیه می‌شود را به مدل‌های زبانی یادگیری عمیق ترکیب می‌کند تا عقل سلیم خود را بسازد. برای مثال، در داستان گیاه فرناندو و زویی، عقل سلیم به CLARA کمک می‌کند که متوجه شود قرار داشتن در کنار پنجره به رشد و سرسبزی گیاه کمک می‌کند.
علاوه بر این CLARA از طریق برقراری تعامل و ارتباط با کاربران نیز به عقل سلیم دست پیدا می‌کند. و در صورتی‌که با تناقضی مواجه شود می‌تواند بپرسد کدام عبارت بیشتر اوقات صحیح است.

به گفته راجر لوی ، یکی از اساتید دانشگاه MIT که در زمینه هوش مصنوعی، زبان و علوم شناختی فعالیت دارد، « این کار اقدامی چالش برانگیز است، اما به عقیده من هدف و رویایی حائز اهمیت است»، « زبان فقط مجموعه‌ای از الگوها و ارتباطات آماری نیست – زبان با معنا و مفهوم و استدلال و عقل سلیم ما از دنیا پیوند دارد.»

تا حدودی به دلیل این‌که Elemental Cognition تا حد زیادی فعالیت‌های خود را به صورت محرمانه انجام می‌دهد کسی نمی‌داند فروچی تا چه میزان در آموزش عقل سلیم به هوش مصنوعی موفق بوده است. Elemental Cognition اخیراً مقاله‌ای منتشر کرده و در آن اظهار داشته بیشتر تلاش‌هایی که برای درک ماشین‌ها انجام می‌شود با شکست مواجه می‌شود و به همین دلیل باید با تلاش‌هایی جایگزین شوند که سؤالات مفهومی‌تری راجع به معنای متن می‌پرسند جایگزین شوند. Elemental Cognition در این مقاله هیچ کد و یا جزئیاتی راجع به سیستم خود منتشر نکرده است.
مقیاس‌گذاری این چنین سیستم پیچیده‌ای فراتر از داستان‌ها و مثال‌های ساده به احتمال زیاد با دشواری‌هایی همراه خواهد بود. به نظر می‌رسد فروچی به دنبال شرکتی است که منابع مالی زیادی در اختیار داشته باشد و هم‌چنین به کمک تعداد زیادی از کاربران نیاز دارد. اگر مردم به یک موتور جست‌و‌جو و یا یک دستیار مجازی کمک کنند تا به عقل سلیم دست پیدا کند، فرایند دست‌یابی به عقل سلیم تسریع پیدا می‌کند. یکی دیگر از احتمالاتی که فروچی پیشنهاد می‌دهد، برنامه‌ای است که از دانش‌آموزان راجع به متنی که مطالعه کرده‌اند سؤالاتی می‌پرسد تا هر دو مطمئن شوند که متن را درست متوجه شده‌اند و آن برنامه هم بتواند مبنای دانش خود را شکل دهد.
فروچی گفته « اگر مؤسسه‌ای قصد سرمایه‌گذاری دارد، من آماده‌‌ام که با او وارد مذاکره شوم»، « من در حال حاضر به پول احتیاج ندارم، اما دوست دارم با شرکت دیگری همکاری کنم و یا شرکت دیگری را خریداری کنیم.»

CLARA تنها سیستم هوش مصنوعی دارای عقل سلیم در شهر نیست. یجین چوآ ، یکی از اساتید دانشگاه واشنگتن و یکی از پژوهش‌گران مؤسسه هوش مصنوعی آلن ، اخیراً توسعه روش دیگری را رهبری کرده، در این روش که COMET نامیده می‌شود یادگیری عمیق و منطق نمادین در کنار یکدیگر می‌گیرند. این برنامه هنگام گفت‌و‌گو و پاسخ‌دهی به سؤالات نسبت به مدل‌های زبانی یادگیری عمیق کمتر سردرگم می‌شود، با این حال برخی مواقع دچار اشتباه می‌شود.

چوآ اعلام کرده دوست دارد پیش از هرگونه قضاوتی، نحوه عملکرد داخلی CLARA را ببیند. زمانی که راجع به این برنامه برای او توضیح دادند، گفت: « در سطح بالا منطقی به نظر می‌رسد». « به عقیده من می‌توانند برای این برنامه چندین مثال از اسباب‌بازی‌ها بیاورند، اما باور این‌که این برنامه بتواند عقل سلیم را در هر کاری تعمیم دهد، دشوار است.»

دیویس از دانشگاه نیویورک مطمئن نیست که هوش مصنوعی عقل سلیم برای واتسون آماده باشد. به گمان او، ضروری است پیشرفت‌های بنیادی در حوزه ماشین‌ها حاصل شود تا آن‌ها بتوانند بدون تلاش و زحمت، همچون انسان‌ها عقل سلیم را فرا بگیرند. برای مثال، به گفته وی مشخص نیست که ماشین‌ها چگونه می‌توانند مفاهیم نامشخص را درک کنند. به گفته دیویس « به نظر می‌رسد از نکته‌ای جدی غافل مانده‌ایم»، « جنبه‌هایی از آن وجود دارد که ما به آنها حتی نزدیک هم نشده‌ایم.»

منبع: hooshio.com

افزایش دقت مدل تشخیص چهره با روش متعادل‌ سازی هیستوگرام


اگر با فناوری تشخیص چهره و OpenCV کار کرده باشید می‌دانید که امتیاز تشخیص در چهره‌هایی که کنتراست واضح‌تری دارند، به طرز معناداری بالا است. حال این سوال پیش می‌آید که چطور می‌توان کنتراست تصاویر را بصورت خودکار ارتقاء داد؟ در بخش‌های بعدیِ مقاله، مفهومِ «متعادل‌ سازی هیستوگرام» را توضیح خواهیم داد. اگر این مطلب را تا آخر بخوانید، شیوه ارتقای امتیازِ تشخیص را یاد خواهید گرفت. در ابتدا باید بدانیم کنتراست در پردازش تصویر به چه معناست. در پایان، این مقاله چگونگیِ بکارگیری «روش متعادل ‌سازی هیستوگرام» بسیار پیشرفته‌ای را در تصاویر رنگی تبیین خواهد کرد. در این راستا، از الگوریتم متعادل ‌سازی هیستوگرام وفقی استفاده خواهیم کرد.

کنتراست تصویر چیست؟

به این تعریف ویکیپدیا توجه کنید: «اختلاف رنگ یا روشنایی باعث می‌شود یک شیء از سایر اشیاء در دامنه دید یکسان قابل‌تفکیک باشد.»
هر کسی که با عکاسی آشنایی داشته باشد، می‌داند که تعریف فوق منطقی است. آنچه مشکل ایجاد می‌کند، کنتراست زیاد یا کم است. این تعریف مستقیماً می‌گوید که به چه چیزی برای جداسازی اشیاء از پس‌زمینه‌شان نیاز است. باید روش کار بهینه باشد.

 

متعادل‌ سازی هیستوگرام

تفاوت بین تصویر‌ها با کنتراست کم و زیاد

تصویر سمت چپ کنتراست کمتری در مقایسه با تصویر سمت راست دارد. برخلاف تصویر سمت راست، خطوط و برجستگی‌های چهره سمت چپ به سختی قابل مشاهده هستند. اما باید به این نکته توجه داشت که اگر تصویر کنتراست بیش از حدی داشته باشد، اطلاعات ظریف از دست می‌روند. این مسئله می‌تواند موجب نگرانی متخصصان داده شود. اگر قبل از دسته‌بندی شیء به ارتقای کنتراست بپردازید، قدری از نویز کاسته می‌شود و مدل بهبود پیدا می‌کند. بنابراین، وقتی از یک الگوریتم برای ارتقای کنتراست استفاده می‌کنید، دست از زیاده‌روی بردارید.

متعادل‌ سازی هیستوگرام

متعادل ‌سازی هیستوگرام یک روش پردازش تصویر برای تنظیم شدت آن تصویر است. این کار به ارتقای کنتراست تصویر کمک شایانی می‌کند. می‌توان از یک هیستوگرام برای توضیح این کار استفاده کرد. هیستوگرامِ متعادل‌سازی شده به این معناست که تصویر از همه سطوح خاکستری با نسبت برابر استفاده می‌کند. افزون براین، شدت به شکل بهتری در هیستوگرام توزیع می‌شود. تصویرِ زیر این توضیحات را به خوبی نشان می‌دهد؛ حرف T بیانگر تابع تبدیل است. افرادی که تا حدی با آمار آشنایی دارند، باید با این توضیحات موافق باشند.

متعادل‌ سازی هیستوگرام

متعادل ‌سازی هیستوگرام

OpenCV از روشی موسوم به cv2.equalizeHist() بهره می‌برد. این روش هیستوگرام را در تصویر ورودی به کار می‌گیرد. این روش در آن دسته از تصاویری که پس‌زمینه و پیش‌زمینه تاریک یا روشنی دارند، به خوبی عمل می‌کند. اما متعادل‌سازیِ هیستوگرام با محدودیت قابل‌توجهی روبروست. این روش زمانی به بهترین شیوه عمل می‌کند که توزیع مقادیر پیکسل در کل تصویر مشابه باشد. اگر برخی از نواحی تفاوت چشم‌گیری با دیگر بخش‌های تصویر داشته باشند، شاید امکان افزایش درست کنتراست در برخی نواحی وجود نداشته باشد. این مثال از تصویر را در ذهن تجسم کنید که نور از پنجره به داخل راه پیدا می‌کند و بعضی از بخش‌های تصویر روشن‌تر دیده می‌شوند.

متعادل‌سازیِ هیستوگرام وفقی
برای اینکه کاستی‌های الگوریتم متعادل ‌سازی هیستوگرام را حل کنید، می‌توانید چند هیستوگرام برای یک تصویر محاسبه کنید. در این صورت، هر هیستوگرام ناحیه مشخصی از تصویر را دربرمی‌گیرد. این کار باعث می‌شود همه نواحی تصویر به صورت مجزا ارتقاء پیدا کند. بدین ترتیب، مسئله اصلی رفع می‌شود. با این حال، الگوریتم متعادل ‌سازی هیستوگرام مسئله جدیدی را به وجود می‌آورد. این الگوریتم می‌تواند کنتراست را در نواحی نسبتاً ثابتِ تصویر بیش از اندازه ارتقاء ببخشد. به همین منظور، روش دیگری در بخش بعدی معرفی خواهیم کرد که عملکرد بهتری دارد.

 

متعادل‌ سازی هیستوگرام

 

الگوریتم متعادل‌ سازی هیستوگرام با کنتراست محدود

همان‌طور که در بخش پیشین ذکر شد، متعادل‌ سازی هیستوگرام وفقی باعث می‌شود نویز در نواحی نسبتاً ثابتِ تصویر افزایش پیدا کند. الگوریتمی که در این بخش پیشنهاد می‌شود، این افزایش نویز را محدود می‌کند. این کار با توزیعِ آن بخش از هیستوگرام که از حد مجاز تخطی می‌کند، به انجام می‌رسد. اما می‌خواهید نتایجِ بکارگیری این الگوریتم را ببینید، این‌طور نیست؟ یک مثال خوب در بخش زیر آورده‌ایم.

رئیس جمهور فعلیِ آمریکا، قبل و بعد از بکارگیری الگوریتم CLAHE

استفاده از OpenCV

اکثر فرایندهای اجرا تنها با تصاویر مقیاس خاکستری سازگار هستند. اگر در این بخش مثالی از تصویر رتگی برایتان بیاوریم، موضوع را بهتر متوجه می‌شوید. فرایند اجرا به صورت زیر است: استفاده از روش CLAHE برای تصاویر BRG. مهم‌ترین بخش در این مقاله پوشش داده شد و امیدواریم متخصصان داده بتوانند بقیه مراحل را طی کنند. با این حال، این روش با جزئیات بیشتری توضیح داده خواهد شد. در ابتدا، تصویر BGR به فرمت HSV تبدیل شد. باید دقت کنیم که رنگ یا اشباع‌شدگیِ تصویر خراب نشود.
• قبل از هر چیز باید HSV را توضیح دهیم:
• رنگ (Hue): عبارتی که برای رنگ‌های طیف خالص به کار برده می‌شود و معمولاً با عنوان «اسامی رنگی» از آن یاد می‌کنند (قرمز، نارنجی، زرد، آبی، سبز و بنفش).
• اشباع‌شدگی (Saturation): شدت رنگ در یک تصویر. رنگ‌های اصلی (قرمز، آبی و زرد) خالص‌ترین رنگ‌ها به شمار می‌آیند زیرا کاملاً اشباع هستند. با افزایش اشباع‌شدگی، رنگ‌ها خالص‌تر دیده می‌شوند.
• مقدار (Value): روشنایی یا تاریکیِ یک رنگ. تصویری که فاقد رنگ یا اشباع‌شدگی باشد، تصویر مقیاس خاکستری است.
در گام بعد باید CLAHE را در اندازه تصویر به کار برد. پارامترهای استفاده شده را توضیح خواهیم داد. محدودیت clipping باید به کمتر از ۴۰ کاهش پیدا کند. پارامتری تحت عنوان اندازه «tile grid» می‌تواند تصویر را به ۶۴ قطعه با ۸ ستون و ۸ ردیف تقسیم کند. تصور کنید تصویر ورودی‌تان ۱۶۰×۱۶۰ پیکسل باشد. در این مورد، تصویر را به نواحیِ ۲۰×۲۰ پیکسل تقسیم می‌کنیم. هر دو پارامتر غالباً به عنوان پیش‌فرض مورد استفاده قرار می‌گیرند. به خاطر داشته باشید که اگر دنبال رفتار باثبات هستید، باید همه تصاویر را در مقیاس یکسان قرار دهید. در گام نهایی، قبل از اینکه عکس را به فرمت اصلی BGR برگردانیم، کانال اندازه را با کانال رنگ و اشباع‌شدگی ادغام می‌کنیم.

متعادل‌ سازی هیستوگرام

 

چه زمانی باید از این روش استفاده کرد؟

پاسخ این پرسش را به خوانندگان مقاله واگذار می‌کنیم. از دید ما، این روش می‌تواند در مرحله تشخیص و بازشناسی مورد استفاده قرار گیرد. این مراحل در بخش زیر توضیح داده می‌شوند.

مرحله تشخیص

در این مرحله، می‌توان اشیای بیشتری را پیدا کرد. ما این روش را آزمایش کردیم . مدل می‌تواند پس از استفاده از CLAHE به شناسایی اشیای بیشتری بپردازد. برای مثال، امکان استفاده از آن در اسکن MRI نیز وجود دارد. با این حال، بهتر است گاهی در تشخیص اشیاء از ابزار «up-sample» استفاده کنیم. تاثیرِ این کار بیشتر از بکارگیریِ CLAHE است.

مرحله بازشناسی

همان‌طور که در بخش‌های پیشین مشاهده کردیم، یقیناً استفاده از CLAHE در مرحله تشخیص خیلی مفید است. برای مثال، وقتی افراد برای آموزشِ مدل به دسته‌بندی تصاویر نیاز داشته باشند، مرحله بازشناسی به آنها کمک می‌کند آن کار را بهتر انجام دهند. این روش می‌تواند گام پیش‌پردازش خوبی نیز برای مدل‌های خاصی از یادگیری ماشینی باشد. در حال حاضر نمی‌توان با قطعیت گفت که این روش تفاوت قابل ملاحظه‌ای در بازشناسی اشیاء ایجاد می‌کند یا خیر، چرا که یافتنِ تحقیقات خوب درباره این موضوع دشوار است.

نتیجه‌گیری

امیدواریم بتوانید از مطالب این مقاله برای ارتقای ابزارهای بازشناسی و تشخیص اشیاء استفاده کنید. ما همواره منتظر نظرات و پیشنهادهای شما هستیم. پس نظرات خود را در پایان این مقاله در وب‌سایت ما درج کنید.

سیب سییسب ل سیل سی بل

سیل سی یبل سیلسیبل سیب ب

منبع: hooshio.com

NVIDIA سرعت آپاچی اسپارک مهم ‌ترین پلتفرم تحلیل داده جهان را افزایش می‌ دهد


NVIDIA به تازگی اعلام کرد که همکاری با بخش منبع باز را آغاز کرده تا نسخه سوم آپاچی اسپارک را سرعت بخشد.

لازم به ذکر است که بیش از ۵۰۰.۰۰۰ دانشمند داده در سرتاسر جهان از موتور تحلیل آپاچی اسپارک برای پردازش دیتاست های بزرگ استفاده می‌کنند. حال با انتشار نسخه سوم اسپارک، دانشمندان داده و مهندسان یادگیری ماشین برای نخستین بار قادر خواهند بود سرعت کارت گرافیکی را در فرایند پردازش داده ETL به طرز قابل ملاحظه‌ای افزایش دهند.

همچنین زمینه برای پردازش «آموزش مدل هوش مصنوعی» در خوشه اسپارک فراهم خواهد آمد و دیگر نیازی نیست امور به عنوان فرایندهای مجزا در زیرساخت‌های مجزا اجرا شوند. به این ترتیب، تحلیل داده با عملکرد بسیار بهتری در کل روند کاری علم داده انجام گرفته و پردازش ده‌ها هزار ترابایت داده به سرعت انجام خواهد شد. از مزایای دیگر این است که نیازی به استفاده از کد موجود برای اجرای اسپارک در فضای ابر نیست.

Adobe با تکیه بر همکاری راهبردی هوش مصنوعیِ خود با NVIDIA به یکی از نخستین شرکت‌هایی تبدیل شده که روی نسخه پیش‌نمایش اسپارک ۳.۰ در Databricks کار می‌کند. این شرکت توانسته با استفاده از روش تحلیل داده با کارت گرافیکی بهتر، میزان عملکرد را هفت برابر ارتقاء بخشیده و از ۹۰ درصدِ هزینه‌ها در آزمایش اولیه بکاهد. Adobe ویژگی‌هایی را ارائه کرده که تقویت کسب و کارهای دیجیتال را در پی داشته است.

بنیان‌گذاران Databricks در ساخت آپاچی اسپارک نقش اصلی را ایفا کرده‌اند. گفتنی است که پلتفرم تحلیل داده Databricks روزانه بیش از ۱ میلیون ماشین مجازی را به اجرا در می‌آورد. NVIDIA و Databricks به همکاری با یکدیگر پرداخته‌اند تا اسپارک را با RAPIDS بهینه‌سازی کنند. در همین راستا، افزایش سرعت کارت گرافیکی در حوزه‌های یادگیری ماشین و علم داده در دستور کار قرار گرفته است. این اقدام می‌تواند به یاری حوزه‌های گوناگونی از قبیل بهداشت و درمان، امور مالی، خرده‌فروشی و بسیاری دیگر از صنایع بشتابد.

منبع: hooshio.com

OpenAI و مایکروسافت در هوش مصنوعی عمومی با یکدیگر همکاری می‌کنند


حدود یک سال پیش، شرکت مایکروسافت با انتشار خبری اعلام کرد که خواهان سرمایه‌گذاری یک میلیاردی در OpenAI است. هدف از همکاری OpenAI با مایکروسافت، توسعه فناوری‌های جدید برای پلتفرم ابری «Azure»در هوش مصنوعی عمومی مایکروسافت و گسترش قابلیت‌های هوش مصنوعی بزرگ‌مقیاس عنوان شد.

تحقق این هدف به بکارگیری هوش مصنوعی عمومی بستگی دارد. OpenAI نیز به نوبه خود توافق کرد تا بخشی از مالکیت فکری‌اش را در اختیار مایکروسافت بگذارد. به این ترتیب، مایکروسافت می‌تواند اقدام به تجاری‌سازی و فروش آن به شرکایش کرده و مدل‌های هوش مصنوعی را در Azure آموزش داده و به اجرا دربیاورد. در همین راستا، OpenAI در تلاش بوده تا سخت‌افزارهای رایانش نسل بعدی را توسعه دهد.در جریان کنفرانس توسعه‌دهندگان بیلد مایکروسافت در سال ۲۰۲۰، نخستین ثمرۀ همکاریِ میان این دو در قالب یک ابررایانه جدید اعلام شد. بنا به اعلام مایکروسافت، این ابررایانه با همکاری OpenAI در Azure ساخته شده است. شرکت مایکروسافت مدعی شده که این ابررایانه در مقایسه با TOP 500 پنجمین ماشین قدرتمند جهان به شمار می‌آید؛ گفتنی است که پروژه TOP 500 جزئیات پانصد ابررایانه برتر جهان را بررسی می‌کند. بر اساس جدیدترین رتبه‌بندی، ابررایانه «OpenAI» یک رتبه پایین‌تر از Tianhe-2A (متعلق به مرکز ملی ابررایانه چین) و یک رتبه بالاتر از Frontera (متعلق به مرکز رایانه پیشرفته تگزاس) قرار دارد. این رتبه‌بندی نشان می‌دهد که ابررایانه «OpenAI» قادر است بین ۳۸.۷ تا ۱۰۰.۷ کوادریلیون عملیات در هر ثانیه انجام دهد.

«OpenAI» از مدت‌ها پیش اعلام کرده قدرت رایانش خارق‌العاده‌ای برای تحقق اهداف هوش مصنوعی عمومی نیاز است. این پیشرفت به هوش مصنوعی نیز در یادگیری همه فعالیت‌های انسان کمک شایانی خواهد کرد. برخی افراد از قبیل «یوشوآ بنجیو» موسس Mila و «یان لِکان» دانشمند هوش مصنوعی بر این باورند که هوش مصنوعی عمومی نمی‌تواند وجود داشته باشد؛ اما بنیان‌گذاران و حامیان «OpenAI» که از جمله سرشناس‌ترینِ آنها می‌توان به گرِگ بروکمن، ایلیا ساتسکور، ایلان ماسک، راید هافمن، رئیس سابق Y Combinator به نام سَم آلتمن اشاره کرد، معتقد هستند که رایانه‌های قدرتمند می‌توانند در کنار یادگیری تقویتی و سایر روش‌‍‌ها به پیشرفت‌های کم‌نظیری در حوزه هوش مصنوعی دست یابند.

مزایای مدل‌های بزرگ

ماشین «OpenAI» حاوی بیش از ۲۸۵.۰۰۰ پردازنده مرکزی، ۱۰.۰۰۰ کارت گرافیکی و قابلیت اتصال ۴۰۰ گیگابیت بر ثانیه اتصال می‌باشد. این ماشین برای آموزشِ مدل‌های بزرگ هوش مصنوعی طراحی شده است؛ مدل‌هایی که با بررسی میلیاردها صفحه متن از کتاب‌ها، کتابچه‌های راهنما، دروس تاریخ، دستورالعمل‌های منابع انسانی و سایر منابعی که در دسترس عموم قرار دارند، اقدام به یادگیری می‌کند. از جمله این منابع می‌توان به مدل پردازش زبان طبیعیNVIDIA اشاره کرد که ۸.۳ میلیارد پارامتر را در دل خود جای داده است؛ یا حتی متغیرهای قابل تنظیمی که درون مدل تعبیه شده‌اند. مقادیرِ این متغیرها در انجام پیش‌بینی مورد استفاده قرار می‌گیرند. جزئیات منابع دیگر به صورت زیر خلاصه شده است:

  1. Turing NLG شرکت مایکروسافت (دارای ۱۷ میلیارد پارامتر) که پیشرفته‌ترین نتایج را در چند شاخص معیار زبانی به دست می‌آورد؛
  2. چارچوب ربات گفتگوی Blender متعلق به فیس‌بوک (با ۹.۴ میلیارد پارامتر)
  3. و مدل GPT-2 متعلق به «OpenAI» (با بیش از ۱.۵ میلیارد پارامتر) که قادر است متونی در سطح انسان ایجاد کند.

سَم آلتمن، مدیر عامل «OpenAI» اظهار داشت: «هر چه اطلاعات بیشتری در خصوص نیازها و محدودیت‎های مختلف اجزای سازنده ابررایانه‌ها به دست می‌آوریم، این پرسش برجسته‌تر می‌شود: سیستم رویایی مد نظرمان چه شکل و شمایل و چه ویژگی‌هایی خواهد داشت؟ مایکروسافت توانست جامه عمل به این هدف بپوشاند. اکنون شاهد این هستیم که سیستم‌های بزرگ‌مقیاس جزء بسیار مهمی در آموزشِ مدل‌های قدرتمند هستند.»

در هوش مصنوعی عمومی

ابزار پاسخگویی هوشمند Outlook از مدل‌های یادگیری عمیقی استفاده می‌کند که در یادگیری ماشین Azure آموزش دیده‌اند.

یافته‌ها حاکی از آن است که این مدل‌های بزرگ عملکرد بسیار خوبی از خود بر جای می‌گذارند زیرا قادر به درک نکات ظریف زبان، دستور زبان، دانش، مفاهیم و بافت هستند. افزون بر این، سیستم‌های مذکور می‌توانند گفتار را خلاصه کنند، اسناد حقوقی پیچیده را تجزیه و تحلیل نمایند و از GitHub کدنویسی را آغاز کنند. مایکروسافت از مدل‌های تورینگِ خود برای تقویت درک زبان در Bing، نرم‌افزار آفیس، Dynamics و سایر محصولات بهره‌وری‌اش استفاده کرده است. مدل‌ها توانستند در Bing نقش تقویتی مهمی در کپشن‌سازی و پاسخگویی به پرسش‌ها ایفا کنند. این مدل‌ها در نرم‌افزار آفیس هم نقش قابل توجهی در توسعۀ هر چه بیشتر ابزارهای Smart Lookup (جستجوی هوشمند) و Key Insights داشتند. Outlook از این مدل‌ها برای پاسخ‌های پیشنهادی استفاده می‌کند. این مدل‌ها در Dynamics 365 Sales Insights نیز به کمک فروشندگان شتافته‌اند تا تمهیدات مناسبی را با توجه به تعاملات پیشین با مشتریان در نظر بگیرند.

از دیدگاه فنی، مدل‌های بزرگ عملکرد بهتری نسبت به مدل‌های پیشین خود دارند و از قابلیت خود نظارتی بهره می‌برند؛ یعنی قادرند با بررسی روابط میان بخش‌های مختلف داده، برچسب‌ ایجاد کنند. به باور محققان، این کار ما را یک گام به تحقق هوش مصنوعی در سطح انسان نزدیک‌تر می‌کند. این اقدام بر خلاف الگوریتم‌های یادگیری با نظارت است؛ تنظیم این الگوریتم‌ها در اموری که به صنایع، شرکت‌ها و موضوعات خاصی اختصاص دارد، کار را دشوارتر می‌کند. «کِوین اسکات» مسئول فنی شرکت مایکروسافت بیان کرد: «نکته هیجان‌انگیزِ مدل‌های یاد شده این است که کاربردهای گوناگونی در بخش‌های مختلف دارند. این مدل‌ها قادرند صدها فعالیت مهم در حوزه پردازش زبان طبیعی و بینایی رایانه انجام دهند. در صورتی که این قلمروهای مختلف با یکدیگر ادغام شوند، شاهد کاربردهای جدیدی خواهیم بود که پیشتر تصور نمی‌شد.»

بکارگیری هوش مصنوعی در مقیاس بزرگ

مدل‌هایی که در خانواده تورینگ جای می‌گیرند، فاصله زیادی با هوش مصنوعی عمومی دارند؛ مایکروسافت اعلام کرده که در حال استفاده از یک ابررایانه برای بررسی آن دسته از مدل‌های بزرگی است که قادرند به صورت تعمیم یافته از متون، تصاویر و داده‌های ویدئویی یاد بگیرند. OpenAI نیز همین رویه را در پیش گرفته است. همان‌طور که مجله MIT Technology Review در ابتدای سال جاری اعلام کرد، یکی از تیم‌های فعال در OpenAI به نام Foresight در حال انجام آزمایش‌هایی برای بررسی ارتقای قابلیت‌های هوش مصنوعی است. تیم Foresight با حجم عظیمی از داده اقدام به آموزش الگوریتم‌ها می‌کند. بر اساس همین منبع خبری، OpenAI در حال توسعه سیستمی با استفاده از منابع محاسباتی عظیم است که از تصاویر، متون و سایر داده‌های برای کار آموزش کمک می‌گیرد. مدیران ارشد شرکت بر این باورند که این مسیر سرانجام می‌تواند به هوش مصنوعی عمومی ختم شود. بروکمن و آلتمن اعتقاد دارند که هوش مصنوعی عمومی قادر به ارائه عملکردی درخشان در بسیاری از حوزه‌ها خواهد بود. این فناوری خواهد توانست آن دسته از پیوندهای پیچیده‌ای را مورد شناسایی قرار دهد که کارشناسان انسان در بررسی آنها عاجز مانده‌اند. افزون بر این، محققان اظهار داشتند که اگر هوش مصنوعی عمومی با همکاری نزدیک محققان رشته‌های مرتبطی نظیر علوم اجتماعی به کار برده شود، زمینه برای رفع چالش‌های بزرگ در بهداشت و درمان، تغییرات آب و هوا و آموزش و پرورش فراهم خواهد آمد.

این موضوع کماکان در هاله‌ای از ابهام قرار دارد که آیا این ابررایانه جدید توان کافی برای رسیدن به سطح هوش مصنوعی عمومی را دارد یا خیر. بروکمن سال گذشته در مصاحبه با روزنامه «Financial Times» خاطرنشان کرد: «انتظار داریم کل سرمایه یک میلیاردیِ مایکروسافت را تا سال ۲۰۲۵ برای ساخت سیستمی هزینه کنیم که قابلیت اجرای یک مدل هوش مصنوعی به اندازه مغز انسان را داشته باشد.» در سال ۲۰۱۸، محققان OpenAI با انتشار مطالب تحلیلی اعلام کردند که میزان محاسباتِ بکار رفته در بزرگ‌ترین موارد آموزش هوش مصنوعی بیش از ۳۰۰.۰۰۰ برابر افزایش یافته است؛ یعنی هر ۳.۵ ماه دو برابر گردیده است. پس می‌بینیم که سطح عملکرد فراتر از پیش‌بینی قانون مورمی‌باشد. چندی پیش، IBM جزئیات مربوط به رایانه عصبیرا منتشر کرد؛ این رایانه از صدها تراشه برای آموزش هوش مصنوعی استفاده می‌کند. NVIDIA نیز به نوبه خود خبر از انتظار سرور ۵ پِتافلاپی بر پایه کارت گرافیکی A100 Tensor Core خود تحت عنوان A100 داد.

شواهد و قرائن حاکی از آن است که بهبود کارآیی شاید توان جبران نیازهای فزایندۀ محاسبات را داشته باشد. بر اساس یکی از نظرسنجی‌های اخیر OpenAI، میزان محاسبات لازم برای آموزش مدل‌های هوش مصنوعی از سال ۲۰۱۲ هر ۱۶ ماه یک بار تا دو برابر کاهش یافته است. اما این موضوع کماکان جای بحث و بررسی دارد که محاسبه تا چه اندازه در مقایسه با روش‌های الگوریتمی جدید موجب ارتقای سطح عملکرد می‌شود. البته نباید این موضوع را فراموش کرد که OpenAI با منابع اندکی که در اختیار دارد، به بازده هوش مصنوعی بالایی در بازی‌ها و حوزه‌ای تحت عنوان media synthesis دست یافته است. در پلتفرم ابری گوگل، سیستم OpenAI Five توانست بازیکنان حرفه‌ای Dota 2 را با کارت گرافیکی ۲۵۶ Nvidia Tesla P100 و ۱۲۸.۰۰۰ هسته پردازنده شکست دهد؛ کاری که عملاً به ۱۸۰ سال بازی نیاز داشت. شرکت گوگل به تازگی سیستمی را با ۶۴ کارت گرافیکی Nvidia V100 و ۳۲ هسته پردازنده آموزش داد تا مکعب روبیک را با دست رباتیک حل کند. البته باید به این نکته اشاره کرد که میزان موفقیت نسبتاً پایینی داشت. افزون بر این، مدل Jukebox متعلق به OpenAI اقدام به شبیه‌سازی با ۸۹۶ کارت گرافیکی V100 نمود تا در هر سبکی تولید موسیقی کند.

فرصت‌های جدید در بازار

در حال حاضر مشخص نیست که این ابررایانه گامی کوچک یا جهشی بزرگ در هوش مصنوعی عمومی است، اما ابزارهای نرم‌افزاریِ استفاده شده در طراحی آن می‌تواند فرصت‌های بازار جدیدی را برای مایکروسافت فراهم کند. مایکروسافت به واسطه طرح جدیدش در هوش مصنوعی منابع را در دسترس قرار می‌دهد تا مدل‌های بزرگی را در شبکه‌های هوش مصنوعی Azure آموزش دهد. در همین راستا، داده‌های آموزشی به پشته‌هایی تقسیم می‌شوند از آنها برای آموزش چندین مدل در خوشه‌ها استفاده می‌شود. از جمله این منابع می‌توان به نسخه جدید DeepSpeed (یک کتابخانه هوش مصنوعی برای چارچوب یادگیری ماشین PyTorch فیس‌بوک) اشاره کرد که مدل‌ها را با زیرساخت یکسان تا ۱۰ برابر سریع‌تر آموزش می‌دهد. آموزش توزیع شدهدر ONYX در صورتی که با DeepSpeed استفاده شود، این قابلیت را در اختیار مدل‌ها قرار می‌دهد تا سطح عملکرد تا ۱۷ برابر ارتقاء پیدا کند. «کِوین اسکات» مسئول فنی شرکت مایکروسافت در پایان خاطرنشان کرد: «ما با توسعه زیرساخت‌های پیشرفته برای آموزش مدل‌های بزرگ هوش مصنوعی قصد داریم Azure را ارتقاء دهیم. ساخت رایانه‌های بهتر، سیستم‌های توزیع شدۀ بهتر، شبکه‌های بهتر و دیتاسنترهای بهتر در دستور کار ما قرار دارد. این اقدامات به ارتقای سطح عملکرد و انعطاف‌پذیریِ ابر Azure کمک کرده و منجر به صرفه‌جویی در هزینه‌ها خواهد شد.»

منبع: hooshio.com

استفاده از یادگیری ماشین در موبایل


تحولات یادگیری ماشین در مویایل کمک بزرگی به توسعه‌دهندگان نرم‌ افزارهای موبایل کرده است. این فناوری زمینه را برای تقویت نرم‌ افزار های موبایل فراهم کرده و تجربه بهتری به کاربران داده است. توصیه‌های دقیق بر اساس موقعیت مکانی و شناسایی بیماری‌های گیاهی از جمله دستاوردهای مهم این فناوری برشمرده می‌شود. پیشرفت سریع یادگیری ماشین در موبایل باعث شده تا تدابیر لازم برای رفع برخی از مسائل رایج در این حوزه اندیشیده شود؛ مسائلی که یادگیری ماشین کلاسیک در حل آنها عاجز مانده است. نرم ‌افزارهای موبایل درر آینده نیازمندِ سرعت پردازش بالا و تاخیر کمتر هستند.

شاید این پرسش به ذهن‌تان خطور کند که چرا نرم ‌افزارهای موبایل AI-first قادر به استنتاج در فضای ابر نیستند. چنین روش متمرکزی قادر نیست سرعت پردازش بالایی را برای تجربه نرم‌افزاری راحت با فناوری یادگیری ماشین ارائه کند. داده‌ها باید در این مرکز داده‌ای متمرکز پردازش شده و سپس به دستگاه مورد نظر ارسال شوند. این فرایند به زمان و هزینه نیاز دارد و نمی‌توان به راحتی حریم خصوصی داده‌ها را تضمین کرد. حال که مزایای عمده یادگیری ماشین در موبایل ذکر شد، بیایید به صورت جامع این موضوع را بررسی کنیم که چرا باید در انتظار انقلابی بزرگ در یادگیری ماشین در دستگاه‌های هوشمند باشیم.

لزوماً نیازی نیست کارشناس یادگیری ماشین باشید تا قابلیت‌های آن را رمزگشایی کنید. این تخصص را به عهده ما بگذارید. به راحتی اقدام به ساخت نرم‌افزارهایی کنید که قابلیت دیدن، شنیدن، حس کردن و فکر کردن با حساب رایگان Fritz AI داشته باشند.

تاخیر کمتر

توسعه‌دهندگان نرم ‌افزارهای موبایل به این موضوع واقف‌اند که تاخیر زیاد مانع بزرگی برای نرم‌افزار است؛ صرف‌نظر از اینکه ویژگی‌ها تا چه حد قوی هستند یا برند خوش‌آوازه و معتبر است. دستگاه‌های اندروید در گذشته در چندین نرم‌افزار ویدئویی با مشکل تاخیر روبرو بودند. این مشکل باعث می‌شد کاربران قادر به تماشای آسان ویدئو نباشند. برای مثال، عدم هماهنگی صدا و تصویر تجربه بدی را به کاربران می‌داد. به طور مشابه، آن دسته از نرم‌افزارهای شبکه اجتماعی که تاخیر بالایی دارند، ناامیدی و خستگیِ کاربران را به همراه دارند. امروزه استفاده از یادگیری ماشین در موبایل و دیگر دستگاه‌های هوشمند بیش از پیش اهمیت پیدا کرده است و دلیل آن را به مسئله تاخیر نسبت می‌دهند. فیلترهای شبکه‌های اجتماعی و توصیه رستوران بر حسب موقعیت مکانی را در نظر بگیرید؛ این‌ها جزو آن دسته از ویژگی‌های نرم‌افزاری هستند که قادر به ارائه بهترین نتایج با تاخیر کم می‌باشند.

همان‌طور که پیشتر اشاره شد، رایانش ابری می‌تواند با کُندی همراه باشد. به این منظور، توسعه‌دهندگان ترجیح می‌دهند تاخیر را به صفر برسانند زیرا تنها در این صورت است که ویژگی‌های یادگیری ماشین به شکل بهینه در نرم ‌افزارهای موبایل عمل می‌کنند. یادگیری ماشین در موبایل و دیگر دستگاه‌های هوشمند می‌تواند با تکیه بر قابلیت‌های داده‌پردازی‌اش، زمینه را برای تاخیرِ نزدیک به صفر مهیا کند.

تولیدکنندگان گوشی‌های هوشمند و بازیگران بزرگ در حوزه فناوری به این موضوع واقف‌اند. شرکت اپل با توسعه تراشه‌های پیشرفته‌تری برای گوشی‌های هوشمند، یکی از پیشروان اصلی این حوزه به حساب می‌آید. این شرکت برای حصول اهداف خود از سیستم Bionic استفاده کرده است؛ این سیستم از یک موتور عصبی یکپارچه بهره می‌برد که امکان اجرای مسقیم و بسیار سریع شبکه‌های عصبی در وسیله‌های هوشمند را فراهم می‌کند. اپل تمرکز ویژه‌ای هم به پلتفرم یادگیری ماشین Core ML دارد. این پلتفرم می‌تواند توجه عده کثیری از توسعه‌دهندگان نرم‌ افزارهای موبایل را به خود جلب کند. تنسورفلو (TensorFlow Lite) نیز هم‌اکنون قابلیت پشتیبانی از GPU را دارد.

گوگل نیز به نوبه خود سعی دارد ویژگی‌هایِ از پیش بارگذاری شده را به پلتفرم یادگیری ماشین خود یعنی ML Kit اضافه کند. توسعه‌دهندگان نرم ‌افزارهای موبایل می‌توانند از این فناوری‌ها برای توسعه آن دسته از نرم‌افزارهایی استفاده کنند که قابلیت پردازش داده‌ با سرعت خارق‌العاده دارند. در این صورت، تاخیر از بین رفته و خطاها کاهش می‌یابند. ترکیب دقت و تجربه بی‌نظیر برای کاربران نکته بسیار مهمی است که توسعه‌دهندگان باید در هنگام ساخت نرم‌افزارهای مبتنی بر یادگیری ماشین به آن توجه داشته باشند. در همین راستا، توسعه‌دهندگان باید توجه ویژه‌ای به یادگیری ماشین در دستگاه‌های هوشمند داشته باشند.

سطح بالای امنیت و حریم خصوصی

یکی دیگر از مزایای عمدۀ رایانش مرزی که امکان درک آن در حال حاضر وجود ندارد، چگونگی عملکرد آن در افزایش سطح امنیت و حریم خصوصی کاربرانش است. تضمینِ امنیت و حریم خصوصی داده‌های نرم‌افزار یکی از بخش‌های اساسی در فعالیت حرفه‌ایِ توسعه‌دهندگان نرم‌افزار برشمرده می‌شود؛ به ویژه با توجه به قانون سخت‌گیرانۀ «مقررات عمومی حفاظت از داده‌ها (GDPR)». این قوانین جدیدِ مربوط به حریم خصوصی قطعاً می‌تواند بر فعالیت‌های توسعه نرم‌افزارهای موبایل تاثیر بگذارد. از آنجا که نیازی نیست داده‌ها برای پردازش به سرور یا ابر ارسال شوند، متخلفان فضای مجازی فرصت اندکی برای سوء استفاده از کاربران آسیب‌پذیر در حین انتقال داده دارند از این رو، حریم داده‌ها حفظ می‌شود. پس این توسعه‌دهندگان نرم ‌افزارهای موبایل این امکان را دارند تا مقررات عمومی حفاظت از داده‌ها را به سادگی در زمینه امنیت داده پیاده‌سازی کنند.

راه‌حل‌های مربوط به یادگیری ماشین در وسیله‌های هوشمند رویکردی تحت عنوان تمرکززدایی پیشنهاد می‌دهند. این رویکرد تا حد زیادی به روش کارکرد بلاک‌چین شباهت دارد. به عبارت دیگر، هکرها نمی‌توانند به راحتی شبکه‌ای به‌هم پیوسته از وسیله‌های پنهان را با حملات DDoS مورد تخاصم قرار داده و به آن نفوذ کنند. این فناوری می‌تواند در زمینه ساخت پهپادها و اجرای قوانین نیز نقش مفید موثری ایفا کند. تراشه‌های گوشی‌ هوشمند اپل که در بالا اشاره شد نیز به افزایش امنیت و حریم خصوصی کاربران کمک شایانی می‌کنند و حتی بنیه اصلی Face ID را تشکیل می‌دهند. این ویژگی آیفون مبتنی بر شبکه عصبی است و داده‌ها را با توجه به شکل صورت کاربران گردآوری می‌کند. بنابراین، یک روش شناسایی امن و دقیق به شمار می‌آید. این فناوری به همراه سخت‌افزارهای آتی مبتنی بر هوش مصنوعی باعث خواهند شد تجربه راحت و امنی برای کاربران گوشی‌های هوشمند ارائه گردد. همچنین، توسعه‌دهندگان نرم‌افزارهای موبایل لایه رمزگذاری بیشتری برای حفاظت از داده‌های کاربران در اختیار خواهند داشت.

از بررسی موارد رایج استفاده گرفته تا چالش‌های فنیِ تبدیل مدل و غیره؛ Fritz AI Newsletter همه مسائل و اطلاعات مربوط به یادگیری ماشین در موبایل را پوشش می‌دهد.

لازم نیست به اینترنت وصل شوید.

فارغ از مسائل مربوط به تاخیر، ارسال داده به ابر مستلزم این است که همواره به اینترنت وصل شوید. اغلب اوقات کاربران در بخش‌های پیشرفته‎ترِ جهان به راحتی کارشان را به پیش می‌برند و در دسترسی به اینترنت هیچ مشکلی ندارند. اما آن دسته از مناطقی که دسترسی کمتری به اینترنت دارند، باید چه کار کنند؟ با برخورداری از یادگیری ماشین در وسیله‌های هوشمند، شبکه‌های عصبی در گوشی‌های موبایل در دسترس قرار خواهد گرفت. بنابراین، صرف‌نظر از میزان دسترسی به اینترنت، توسعه‌دهندگان قادر خواهند بود در هر وسیله و در هر زمانی این فناوری را به کار گیرند.

نکته مهم‌تر این است که کاربران برای اتصال به نرم‌افزارهایشان نیازی به اینترنت نخواهند داشت. بهداشت و درمان از جمله صنایعی است که می‌تواند بیشترین نفع را از یادگیری ماشین در موبایل ببرد؛ زیرا توسعه‌دهندگان قادر به ساخت ابزارهای پزشکی کارآمدی هستند که می‌توانند علائم حیاتی بدن را بررسی کنند. توسعه‌دهندگان می‌توانند زمینه را برای جراحی رباتیک از راه دور نیز فراهم کنند، بدون اینکه نیازی به اتصال اینترنتی باشد. حتی دانش‌آموزان و دانشجویان نیز می‌توانند در مکان‌هایی که امکان اتصال به اینترنت وجود ندارد، به مواد درسی‌شان دسترسی پیدا کنند و عملاً حضور مجازی در کلاس داشته باشند. توسعه‌دهندگان قادر به ساخت نرم‌افزارهایی خواهند بود که کاربران سراسر دنیا از مزایای آنها بهره‌مند شوند؛ بدون اینکه سطح دسترسی به اینترنت دردساز شود. با توجه به اینکه گوشی‌های هوشمند به سطح بالایی از پیشرفت رسیده‌اند، حتی در صورتی که امکان دسترسی به اینترنت وجود نداشته باشد، کاربران در هنگام استفاده از نرم‌افزارشان به صورت آفلاین با تاخیر روبرو نخواهند شد.

کاهش هزینه

یادگیری ماشین در موبایل می‌تواند از میزان هزینه‌ها بکاهد چرا که مجبور نخواهید بود برای اجرای این راه‌حل‌ها به اپراتورهای خارجی پول پرداخت کنید. آن طور که در بخش‌های پیشین ذکر شد، اجرای این راه‌حل‌ها مستلزم دسترسی به اینترنت یا ابر نیست. تراشه‌های مختص هوش مصنوعی و GPU گران‌ترین سرویس‌های ابر هستند. به لطف واحدهای پردازش عصبی (NPU) بسیار پیچیده‌ای که امروزه در گوشی‌های هوشمند تعبیه شده است، اجرای مدل در وسیله‌های هوشمند بدین معناست که نیازی به پرداخت هزینه به این دسته‌ها ندارید. اجتناب از کابوس داده‌پردازی میان موبایل و ابر می‌تواند تا حد زیادی از هزینه‌ها بکاهد؛ بالاخص برای کسب‌وکارهایی که راه‌حل‌های یادیگری ماشین را برای حل مسائل خود مورد استفاده قرار می‌دهند.


نتیجه‌گیری
جای تردید نیست که ابر (Cloud) نعمت بزرگی برای داده و محاسبات در دهه ۲۰۱۰ میلادی بوده است، اما صنعت فناوری با سرعت تصاعدی در حال پیشرفت است. یادگیری ماشین در موبایل نیز به زودی به استانداردی در نرم‌افزارهای موبایل و توسعه IoT تبدیل خواهد شد. بی‌تردید به لطف کاهش مدت تاخیر، امنیت بالا، قابلیت استفادۀ آفلاین و کاهش هزینه، توسعه‌دهندگان نرم‌افزار به آینده این فناوری خیلی امیدوار هستند. اگر علاقمند به کسب اطلاعات بیشتر درباره یادگیری ماشین در موبایل، چگونگی کارکرد و اهمیت ان در فضای توسعه موبایل هستید، می‌توانید به منابع زیر مراجعه کنید:

• Matthijs Holleman’s blog Machine, Think!
• Awesome Mobile Machine Learning:
• Artificial Intelligence at the Edge (video)
• Heartbeat

منبع: hooshio.com