مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

مجله هوش مصنوعی

آخرین اخبار و تکنولوژی های هوش مصنوعی را در اینجا بخوانید.

کاربرد هوش مصنوعی در موسیقی و سه دلیل برای استفاده از آن در این صنعت


رد پای فن‌آوری‌های هوش مصنوعی در تمامی حوزه‌های کسب‌وکار، از خرده‌فروشی گرفته تا مهندسی هوا و فضا، به چشم می‌خورد. هنرمندان با تکیه بر تجارب ذهنی و حسی‌شان به خلق آثار هنری می‌پردازند و هیچ الگوریتمی یارای رقابت کردن با آن‌ها را ندارد. با این حال، کاربرد هوش مصنوعی در موسیقی، آهنگ‌سازی و توسعه پلتفرم‌های پخش موسیقی مورد استفاده زیادی دارد. برای آشنایی بیشتر با برنامه‌های موسیقی مجهز به AIتا پایان این نوشتار با ما همراه باشید.

کاربرد هوش مصنوعی در موسیقی و آهنگ‌سازی

طبق گزارش مؤسسه مک‌کینزی تا سال ۲۰۳۰، ۷۰ درصد از شرکت‌ها حداقل از یکی از فن‌آوری‌های AI استفاده می‌کنند. صنعت موسیقی نیز از این قاعده مستثنی نیست. با ظهور تیک‌تاک و افزایش تعداد یوتیوبرها، که موسیقی لازمه‌ هنرآفرینی‌شان است، اهمیت وجود ابزارهای تولید موسیقی مجهز به AI بیش از پیش آشکار می‌شود.

مثلا Amper را در نظر بگیرید! Amper ابزاری است که با استفاده از فن‌آوری هوش مصنوعی برای سازندگان بازی، رسانه‌ها و دیگر فن‌آوری‌های تعاملی موسیقی تولید می‌کند. این ابزار برای ساخت یک قطعه موسیقی جدید از نمونه کتابخانه‌ و دیتاست‌هایش استفاده می‌کند. Amper تا پیش از روی کارآمدن Shutterstock محبوب‌ترین ابزار تولید موسیقی در بازار شناخته می‌شد. ShutterStock یکی از بزرگ‌ترین تولیدکنندگان محتوا برای سازندگان است و در نهایت اواخر سال ۲۰۲۰ توانست گوی سبقت را از Amper برباید.

برجسته‌ترین کاربرد هوش مصنوعی در موسیقی AIVA است. AIVA یک پلتفرم هوش مصنوعی است که بر تولید موسیقی کلاسیک تمرکز دارد و بهداشتن مشتریانی همچون Nvidia، TED، Vodafone افتخار می‌کند و قطعات موسیقی با حق امتیاز نامحدود (Royalty-free) و سفارشی برای آنان تولید می‌کند. در ساخت این پلتفرم از الگوریتم‌های DL استفاده شده که بر روی تعداد زیادی موسیقی ارکستر آموزش دیده‌اند. یکی دیگر از مزایای این پلتفرم رابط کاربری فوق‌العاده آن است.

یا Loudly، این کسب‌وکار نوپا در برلین واقع شده و در زمینه تولید موسیقی فعالیت دارد؛ در وب‌سایت رسمی این شرکت، شعار“Designed by creators, for creators” به چشم می‌خورد. سیستم این پلتفرم می‌تواند قطعات موسیقی را بازنویسی کنید و با استفاده از الگوریتم‌های یادگیری عمیق GAN قطعات موسیقی سفارشی تولید کند. علاوه بر این، Loudly دارای نمونه حافظه (برای ذخیره موسیقی)، برنامه آهنگ‌سازی و یک پلتفرم اجتماعی است که سازندگان موسیقی می‌توانند در آن با هم مشارکت داشته باشند.

برای قطعات موسیقی که هوش مصنوعی تولید می‌کند، مسئله قوانین حق نشر (Copyright) مطرح می‌شود. مسئله این است که هوش مصنوعی موسیقی را تولید کرده اما برای آموزش آن از داده‌های موسیقیایی هنرمندان حقیقی استفاده شده است، در چنین شرایطی حق امتیاز تولید موسیقی به چه کسی تعلق دارد؟ علاوه بر این، بسیاری از حوزه‌های قضایی، از جمله ایالات متحده، اسپانیا و آلمان کماکان بر این باروند که فقط قطعات موسیقی که انسان‌ها تولید می‌کنند، مشمول قانون حق نشر (copyright) می‌شوند.

هوش مصنوعی و پخش موسیقی

پخش‌کننده‌‌های (player)موسیقی نیز از آسیب‌های ناشی از شیوع ویروس کرونا در امان نبوده اند. با این حال، ارزش بازار پخش‌کننده‌های موسیقی در سال ۲۰۲۰ به ۶/۲۱ میلیارد دلار آمریکا رسید و رشد ۴/۷ درصدی را تجربه کرد. به گفته فدراسیون بین‌المللی صنعت آواشناسی (IFPI) صنعت ضبط موسیقی در سال ۲۰۱۴ و  پس از یک دهه رکود، دوباره رونق گرفت. در سال ۲۰۲۰، سرویس‌های پخش موسیقی ۱/۶۲ درصد از مجموع درآمد حاصل از ضبط موسیقی را به خود اختصاص دادند و به همین دلیل نمی‌توان نقش آن‌ها در احیای این صنعت را نایده گرفت.

صنعت پخش موسیقی در سراسر جهان روند صعودی دارد و از این لحاظ آمریکای لاتین و آسیا پویاترین بازارها را دارند ( ارزش بازارهای پخش موسیقی در این کشور به ترتیب ۲/۳۰ درصد و ۹/۲۹ درصد رشد داشته است). ارزش سرویس‌های پخش موسیقی در بازارهای آفریقا و خاورمیانه نیز در حال رشد است و بازارهای اروپا و آمریکای شمالی را نیز در دست دارد.

هوش مصنوعی، به ویژه یادگیری ماشین و یادگیری عمیق، به همراه سیستم‌های توصیه‌گر خود زیربنای تمامی این سرویس‌ها را تشکیل می‌دهد و تجربه فوق‌العاده‌ای برای شنوندگان فراهم می‌آورد. برای کسب اطلاعات بیشتر مقاله سیستم‌های توصیه‌گر مبتنی بر یادگیری عمیق را مطالعه کنید.

کاربرد هوش مصنوعی در موسیقی چگونه می‌تواند علاقه شنوندگان را به سرویس‌های پخش موسیقی جلب کند؟ برای یافتن پاسخ این سؤال بهتر است نگاهی به بزرگ‌ترین سهام‌داران این بازار بیندازیم.

در نیمه دوم سا‌ل ۲۰۲۰، ۳۴ درصد از کاربران سراسر جهان از Spotify و ۲۱ درصد از آن‌ها از Apple Music برای گوش دادن به موسیقی استفاده می‌کردند. چه چیزی Spotify را خاص کرده است؟ دو کلمه جادویی: هوش مصنوعی!

به لحاظ فنی و تخصصی، پشته Spotify از سه لایه تشکیل می‌شود و هر کدام از آن‌ها به علوم داده و یادگیری ماشین مجهز هستند:

  • داده اولین لایه را تشکیل می‌دهد و تمامی داده‌های مربوط به کاربران، از جمله داده‌های جمعیت شناختی، عادت‌های گوش دادن به موسیقی و سایر داده‌ها رفتاری را در برمی‌گیرد. هرچه میزان داده‌ها بیشتر باشد، سیستم آهنگ‌های بهتری را به کاربر پیشنهاد می‌کند. در زمان نگارش این مقاله، روزانه ۰۰۰/۶۰ آهنگ به Spotify اضافه می‌شود.
  • مدل‌های مشترک لایه میانی را تشکیل می‌دهند و اطلاعات مربوط به علایق کاربر (برای مثال، خوانندگان و آهنگ‌های مورد علاقه کاربر)، تعبیه‌‌ی تشابهات ( این تعبیه شباهت‌هایی که میان خوانندگان، فهرست پخش (playlist) و قطعات موسیقی وجود دارد را مشخص می‌کند) را در بر می‌گیرد و آیتم‌ها را خوشه‌بندی می‌کند.
  • ویژگی‌ها لایه فوقانی را تشکیل می‌دهند. در این لایه مدل‌های یادگیری ماشین با استفاده از داده‌های به دست‌آمده از دو لایه اول، آهنگ‌هایی که احتمال دارد مورد پسند کاربر قرار گیرند را به وی پیشنهاد می‌دهد.

Spotify در صفحه اصلی‌اش، تجربه‌ای شخصی‌سازی شده و بافت‌آگاه برای کاربران به ارمغان می‌آورد؛ این صفحه برای ارائه چنین تجربه‌ای، تمامی عوامل دخیل از جمله دستگاه مورد استفاده (موبایل، کامیپوتر شخصی و …) ، موسیقی‌ در حال پخش، روندهای کنونی و روزِ هفته و ساعات روز و غیره را در نظر می‌گیرد. چنین قابلتی در نتیجه استفاده از سیستم درختان رگرسیون جمعی بیزی (BART) محقق می‌شود. BART یک مدل پیش‌بینی کننده انعطاف‌پذیر و یک رویکرد یادگیری ماشین برای حل مسائل مربوط به پیش‌بینی و طبقه بندی است.

تحلیل، متسرینگ  و آموزش موسیقی به کمک هوش مصنوعی

توانایی فن‌آوری‌های AI فقط به آهنگ‌سازی و سرویس‌های پخش موسیقی محدود نمی‌شود. درواقع کاربرد هوش مصنوعی در موسیقی کاربردهای بیشتری دارد. علیرغم جنجال‌هایی که در مورد سیطره‌ی هوش مصنوعی در موسیقی وجود دارد، این فن‌آوری به کاهش میزان کپی و پخش غیرقانونی موسیقی، پردازش صدا، مسترینگو آموزش موسیقی کمک می‌کند.

برای مثال، شرکتBMAT، که در بارسلونا واقع شده است به شرکت‌های پخش‌کننده، ناشران و شرکت‌های ضبط موسیقی کمک می‌کند قطعات موسیقی‌شان که در پلتفرم‌های مختلف پخش می‌شوند را ردیابی کنند. این شرکت با استفاده از فن‌آوری‌های هوش مصنوعی داده‌هایی با حجم بسیار زیاد را پردازش می‌کند. این شرکت برای تشخیص شباهت‌های موجود میان اصوات، از فن‌آوری اثر انگشت صوتی به عنوان نسخه فشرده‌ای از قطعه موسیقی استفاده می‌کند. الگوریتم‌های یادگیری ماشین شباهت‌هایی را که میان نت‌های موسیقی و حتی موسیقی پس زمینه وجود دارد ردیابی می‌کنند.

علاوه بر این، فناوری هوش مصنوعی به مسترینگ موسیقی که فرایندی هزینه‌بر برای تولیدکنندگان است، کمک می‌کند. برای مثال، LANDR، پلتفرمی نوین است که به کمک آهنگسازان آمده و با استفاده از یادگیری ماشین، قطعات موسیقی را اصلاح می‌کند. این پلتفرم بر روی یک پایگاه فری‌میوم (freemium) اجرا می‌شود و خدمات متنوعی ارائه می‌دهد. موتور مسترینگ این پلتفرم مجهز به هوش مصنوعی است و بر روی داده‌های مربوط به قطعات موسیقی مسترشده آموزش دیده و الگوریتم‌های آن قطعات موسیقی را بر اساس سَبک دسته‌بندی می‌کنند.

علاوه بر این، برنامه‌هایی مجهز به هوش مصنوعی برای آموزش آلات موسیقی تولیده شده است. برنامه‌هایی همچون Yousicion و Jamstick ابزارهایی برای یادگیری آلات موسیقی هستند و بازخوردهایی در مورد روند پیشرفت‌تان به شما می‌دهند.

سخن پایانی

تا سال ۲۰۳۰، ۷۰ درصد از شرکت‌ها به استفاده از فن‌آوری‌های هوش مصنوعی روی می‌آورند و استفاده از هوش مصنوعی در موسیقی یعنی در این صنعت هم تغییراتی ایجاد خواهد شد. البته جای نگرانی نیست! هوش مصنوعی هنوز نمی‌تواند جایگزین هنرمندان شود و همانند آن‌ها تجارب حسی و ذهنی خود را به شکل قطعه‌ای موسیقی عرضه کند.

با این حال، فن‌آوری‌های هوش مصنوعی می‌توانند قطعات موسیقی با حق انحصاری نامحدود، پلتفرم‌های مسترینگ موسیقی، برنامه‌های آموزشی (که روند پیشرفت هنرآموزان را به اطلاع آن‌ها می‌رساند) تولید کنند و علاوه به حفاظت از قانون کپی‌رایت کمک می‌کند. در ضمن، توسعه پلتفرم‌های پخش موسیقی همواره در سراسر جهان ادامه خواهد یافت. بخش بزرگی از درآمد صنعت موسیقی از طریق این پلتفرم‌ها به دست می‌آید. آهنگسازان نیز برای آنکه آهنگ‌های‌شان در فهرست‌های موسیقی (playlist) پلتفرم‌های پخش قرار بگیرد، به استفاده از الگوریتم‌ها روی خواهند آورد.

انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

منبع: هوشیو

بررسی هوش مصنوعی: فناوری کارآمد، امن و شفاف


معاون ارتباطات راهبردی ستاد راهبری فناوری‌های هوشمند حوزه‌های علمیه در نشست تخصصی «هوش مصنوعی و طرح جایگزین»در پاسخ به انتقادات حجت‌الاسلام کشوری در رابطه با بررسی هوش مصنوعی گفت: هوش مصنوعی یک ابزار کارآمد، امن و شفاف است.

به گزارش هوشیو به نقل از خبرگزاری رسا، نشست تخصصی «هوش مصنوعی و طرح جایگزین» با هدف بررسی مصنوعی در سند توسعه پایدار ۲۰۳۰و با حضور حجت‌الاسلام علی کشوری، دبیر شورای راهبردی الگوی پیشرفت اسلامی و حسین ظاهری معاون ارتباطات راهبردی ستاد راهبری فناوری‌های هوشمند حوزه‌های علمیه برگزار شد.

در این نشست، حسین ظاهری، معاون ارتباطات راهبردی ستاد راهبری فناوری‌های هوشمند حوزه‌های علمیه ضمن اشاره به سخنان حجت الاسلام کشوری، بعضی نقدهای مطرح شده را غیرمنصفانه خواند و گفت: «ما پیش‌تر جلساتی را با شورای تخصصی حوزوی و هم دوستان خود شورا و مسائل مختلفی را که مطرح شده، بررسی کردیم. جمع‌بندی پایانی این جلسات این بوده است که ما نمی‌توانیم حتی با حق تحفظ، اسناد بین‌المللی را به آن شکلی که هستند، پذیرش کنیم. اگر شما اسناد بین‌المللی را بررسی کنید، متوجه می‌شوید که این حق تحفظ اگر با روح سند در تضاد باشد، کمیسیون مرتبط با این سند می‌تواند این حق تحفظ را نپذیرد! پس ما چطور می‌توانیم یک چیزی را امضا و تأیید کنیم و حق تحفظی قائل شویم و در آینده حق تحفظ ما رد بشود و بعد از آن درگیر تحریم و مسائل دیگر شویم.»

ظاهری درنقدی که درباره ارائه گزارش‌های مدیریت شده به مراجع خاطر مطرح کرد، خاطر نشان کرد: «در هر جلسه‌ای که با آقایان درباره مسئله هوش مصنوعی صحبت شده است، در همان جلسه بحث کارگروه‌های تخصصی عملی در زمینه نقد و بررسی هوش مصنوعی؛ چه به مثابه یک رویداد که با آن مواجه می‌شویم و چه به مثابه یک موضوع از دیدگاه‌های فقهی، فلسفی، اخلاقی، حقوقی و جامعه‌شناختی در آن کارگروه‌ها تبیین شده و هیچ جایی قرار بر این نبوده است که هوش مصنوعی به یکباره با تعاریف غربی کشور ما را با مشکلات جدی مواجه کند.»

معاون ارتباطات راهبردی ستاد راهبری فناوری‌های هوشمند حوزه‌های علمیه هوش مصنوعی را یک ابزار منبع باز معرفی کرد و توضیح داد: «با این تعریف، طبیعتاً بررسی هوش مصنوعی و تمام فرایندهایآن امکان‌پذیر است. شما می‌توانید خیلی راحت یک برنامه‌نویس متخصص را کنار دست خودتان بیاورید و این فرایند را کاملاً برای شما توضیح بدهد تا هیچ نکته مبهمی نماند. اصلاً خاصیت کد باز همین است.»

وی ادامه داد: با استفاده از ابزارهای هوشمند می‌توان برنامه زندگی را مدیریت کرد. با استفاده از هوش مصنوعی می‌توانیم نقش‌های اجتماعی گسترده‌تری را ایجاد کنیم و در فرایندهای تبلیغی، افراد بیشتری را جذب کنیم و یا در فرایند‌های پژوهشی، تولید علم خیلی گسترده‌تری داشته باشیم.

جدیدترین اخبار هوش مصنوعی ایران و جهان را با هوشیو دنبال کنید

منبع: هوشیو

۳DAT ؛ فناوری جذاب اینتل برای کمک به لیگ حرفه‌ای فوتبال آمریکایی

EXOS در حال اجرای آزمایشی فناوریِ شرکت اینتل به نام «ردیاب ورزشکار سه بعدی» (۳DAT) است تا با استفاده از این فناوری به نسل بعدی بازیکنان فوتبال کمک کند توانایی‌های خود را به حداکثر برسانند. هوش مصنوعی در ورزش کاربردهای زیادی دارد که پیش‌تر به برخی از آن‌ها اشاره شده است.

امسال به دلیل شیوع ویروس کرونا سالی آشفته را پشت‌ سر گذاشتیم و به همین دلیل بیشتر امیدهای قهرمانی احساس می‌کنند برای مسابقات آماده نیستند. پس لازم است برای رسیدن به اهدافشان به آن‌ها کمک‌ کنیم.

۳DAT یک راهکار هوش مصنوعی و بینایی کامپیوتر است که با استفاده از چهار دوربین مداربسته گردان با زاویه حرکت بالا فرم و حرکت ورزشکار را ضبط می‌کند. سپس با استفاده از الگوریتم‌های تشخیص زاویه قرارگیری بدن بیومکانیکِ حرکات آن‌ها را تحلیل می‌کند.

مونیکا لاودرمیلک، معاون پژوهشیِ EXOS، در این باره می‌گوید «محاسباتی که پیش از این با چشم غیر مسلح قابل مشاهده و  اندازه‌گیری نبود اکنون با فناوری ۳DAT محصول شرکت اینتل امکان‌پذیر شده است. با کمک این فناوری می‌توانیم این محاسبات را دریافت کرده، آن‌ها را کنارهم بگذاریم و اطلاعت ملموسی در اختیار مربیان و ورزشکاران قرار دهیم. حتی کوچک‌ترین تغییراتِ ناشی از این فناوری سرنوشت‌ساز می‌تواند پیامدهای حقیقی و تاثیرگذاری برای ورزشکاران به همراه داشته باشد».


مطالعه مطلب زیر را از دست ندهید:

۹ کتاب هوش مصنوعی که علاقه‌مندان و سرمایه‌گذاران نباید خواندنش را از دست بدهند



این فناوری اطلاعات دقیقی در اختیار مربیان EXOS می‌گذارد. مربیان می‌توانند با کمک تحلیل‌های شماتیک دقیق و ارزیابی عملکرد ورزشکاران توصیه‌‌ها و راهنمایی‌های حساب‌شده‌ای در اختیار آن‌ها قرار دهند و توانمندی‌های آن‌ها را به حداکثر برسانند؛ همچنین می‌توانند به صورت عینی به ورزشکاران نشان دهند که چگونه رویکردهای فعلی‌شان آن‌ها را از موفقیت باز می‌دارد.

اَشتون ایتان، قهرمان دو دوره المپیکِ دو و میدانی، و مهندس توسعه محصول در گروه فناوری المپیکِ شرکتِ اینتل، اینطور می‌گوید: «شکاف بزرگی بین ورزش و حوزه حرکت وجود دارد، بین حس افراد هنگام حرکت و شناخت آن‌ها از اعمال‌شان. وقتی که برای مسابقات دو ۱۰۰متر آماده می‌شدم، با کمک مربی‌ام سعی می‌کردیم تا مسیر را در کمترین زمان ممکن طی کنم. امّا همه این کارها حسی بود. گاهی جواب می‌داد، گاهی نه، چون کامل نمی‌دانستم بدنم چه کار می‌کند. فناوری ۳DAT این امکان را در اختیار ورزشکاران قرار می‌دهد تا بفهمند هنگام حرکت بدن‌شان دقیقا چه کاری انجام می‌دهد. و در نتیجه آن‌ها دقیقاً می‌دانند باید روی چه قسمت‌هایی کار کنند تا بهتر و سریع‌تر شوند».

در سیستم ۳DAT هیچ حسگر یا هر چیز دیگری به بدن ورزشکار متصل نمی‌شود که باعث فشار یا ناراحتی شود و ورزشکار را از عملکرد همیشگی‌اش باز دارد. مربیان جزئیات کامل جلسات تمرینی ورزشکاران برای شناسایی مشکلات استفاده می‌کنند.

کریج فریدمن، معاون ارشد تیم عملکرد نوآورانه‌ی EXOS می‌گوید: «۳DAT به ما آگاهی و اطلاعات می‌دهد، نه تنها درباره تکنیک‌های دویدن ورزشکاران و راه‌های پیشرفت آن‌ها، بلکه درباره موانع سر راه آن‌ها. این داده‌ها به ما کمک می‌کند تا با ایجاد تغییراتی در تمرینات، ورزشکار در زمین ورزش توانمندی‌های بیشتری را به نمایش بگذارد».

اینتل معتقد است همکاری مداوم با EXOS به مهندسان این شرکت کمک می‌کند تا با کمک مربیان خبره و ورزشکاران نخبه ۳DAT پیشترفته‌تر شود.

انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

منبع: هوشیو

استفاده از هوش مصنوعی برای بررسی تغییر شکل استخوان‌های فرد مبتلا به آرتروز زانو


آرتروز زانو یک بیماری جهانی است. تقریبا نیمی از افراد بالای ۷۵ سال با یکی از انواع آرتروز زانو درگیر هستند و این بیماری به عنوان یکی از اصلی‌ترین دلایل معلولیت در سراسر جهان شناخته شده است. بدتر این‌که با توجه به عدم وجود درمانی برای این بیماری، رسیدن به راه‌حل مناسب برای درمان آن نیازمند شناسایی دقیق و مرحله‌بندی این بیماری است.

محققان دانشکده گزشکی دانشگاه بوستون با استفاده از یک رویکرد مبتنی بر هوش مصنوعی و یادگیری عمیق توانستند گامی موثر در جهت تعیین شدت آرتروز زانو بردارند و نام آن را «طول استخوان زیرغضروفی» گذاشته‌اند.

دستگاه‌های تصویربرداری مخصوص آرتروز زانو که بتوانند عملکردی قابل‌قبول داشته باشند، زیاد نیستند. درحال‌حاضر از ابزارهای تصویربرداری پزشکی مانند تصویربرداری تشدید مغناطیسی یا اشعه ایکس برای بررسی مفاصل زانو استفاده می‌شود.

ویجایا کولاچالاما، دستیار دکترای دانشگاه بوستون، در این‌باره می‌گوید: «مطالعات ما منجر به شناسایی روش تصویربرداری جدیدی شده که توانایی تبدیل شدن به نشانگر زیستی آتروز زانو را دارد.»



محققان برای تعریف روش جدید از هزاران اسکن MRI استفاده کردند تا بتوانند درجه مسطح شدن غضروف و استخوان و رابطه آن با تنگی فضای رادیوگرافی مفصل، درد همزمان و ناتوانی و همچنین جابجایی جزئی یا کلی زانو در آینده را به ماشین آموزش دهند. آن‌ها سپس از تغییرات نسبی در روش طول استخوان زیرغضروفی، نسبت شانس را برای هریک از این نتایج تخمین زدند و دریافتند که مقادیر طول استخوان زیرغضروفی در زانوهایی که دچار باریکی فضای مفصل شده‌اند و زانوهایی که این مشکل را ندارند، متفاوت است. آن‌ها همچنین دریافتند که تغییرات بیشتر طول استخوان زیرغضروفی در ابتدا با درد و ناتوانی بیشتر همراه است.

طبق ادعای محققان، این مطالعه پیامدهای بالینی مهمی دارد. کولاچالاما در ادامه می‌گوید: «مطالعه ما طول استخوان زیرغضروفی را به عنوان اندازه‌گیری بالقوه مفیدی برای مورفولوژی استخوان در مفصل زانو شناسایی کرده و نشان داده که این موضوع متفاوت از درجه بیماری است. طول استخوان زیرغضروفی همچنین این پتانسیل را دارد که در آینده درجه آرتروز زانو را هم بسنجد.»

قدم بعدی برای محققان بررسی این موضوع است که آیا طول استخوان زیرغضروفی می‌تواند برای تشخیص به‌موقع بیماری مورد استفاده قرار گیرد یا خیر. اگر این شرایط فراهم شود می‌تواند تاثیر چشم‌گیری بر پروسه مدیریت مراقبت از بیمار داشته باشد.

انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

منبع: هوشیو

استخدام یادگیری عمیق: ده مفهوم اساسی برای موفقیت در مصاحبه‌های کاری


مباحث یادگیری عمیق و شبکه‌های عصبی می‌توانند گیج‌کننده باشند. اما باید توجه داشته باشید که برای استخدام یادگیری عمیق در مصاحبه‌های کاری علوم داده، عمده‌ی سؤالات از چند مبحث خاص مطرح می‌شوند. بعد از بررسی صدها نمونه از این مصاحبه‌ها، به ۱۰ مفهوم از یادگیری عمیق رسیدم که اغلب موردتوجه مصاحبه‌گران قرار می‌گیرد.

در این نوشتار، این ۱۰ مفهوم را با هم مرور می‌کنیم:

  1. توابع فعال‌سازی

در صورتی که شناختی از شبکه های عصبی و ساختار آن‌ها ندارید پیشنهاد می‌کنم ابتدا این مقاله را مطالعه کنید تا مشکلی برای استخدام یادگیری عمیق از این بابت نداشته باشید.

بعد از آشنایی مختصر با نورون‌ها/گره‌ها، درمی‌یابید تابع فعال‌سازی مثل کلیدی است که تعیین می‌کند یک نورون خاص باید فعال شود یا خیر.

توابع فعال‌ساز انواع مختلفی دارند، اما از محبوب‌ترین آن‌ها می‌توان به تابع یک‌سوساز خطی یا ReLU اشاره کرد. این تابع از توابع سیگموئید و تانژانت هذلولوی شناخته‌شده‌تر است، زیرا گرادیان کاهشی را با سرعت بیشتری اجرا می‌کند. با توجه به تصویر بالا، مشاهده می‌کنید که وقتی x (یا z) خیلی بزرگ باشد، شیب به شدت کاهش می‌یابد و در نتیجه سرعت کاهش گرادیان به میزان چشمگیری آهسته می‌شود. اما این نکته برای تابع ReLU صدق نمی‌کند.

  1. تابع هزینه

تابع هزینه‌ یک شبکه‌ی عصبی مانند توابع هزینه‌ای است که در سایر مدل‌های یادگیری ماشین به کار می‌روند و برای استخدام یادگیری عمیق آشنایی با آن‌ها ضروری است. تابع هزینه معیاری برای ارزیابی عملکرد مدل، از طریق سنجش شباهت مقادیر پیش‌بینی‌شده با مقادیر واقعی است. تابع هزینه با کیفیت مدل رابطه‌ی عکس دارد؛ یعنی هر چه مدل بهتر باشد، تابع هزینه پایین‌تر خواهد بود و بالعکس.

تابع هزینه را می‌توان بهینه‌سازی کرد.وزن‌ها و پارامترهای بهینه‌ی مدل، با حداقل ساختن تابع هزینه قابل دسترسی هستند.

از توابع هزینه‌ی متداول می‌توان به تابع درجه‌ دوم، تابع آنتروپی متقاطع، تابع هزینه نمایی، فاصله هلینگر و واگرایی کولبک-لیبلر اشاره کرد.

  1. پس‌انتشار

موردی که برای استخدام یادگیری عمیق باید بدانید این است که پس‌انتشار ارتباط نزدیکی با تابع هزینه دارد. پس‌انتشار الگوریتمی است که برای محاسبه‌ی گرادیان تابع هزینه به کار می‌رود. این الگوریتم با توجه به سرعت و کارآیی بالایی که در مقایسه با سایر رویکردها دارد، از محبوبیت و کاربرد بالایی برخوردار شده است.

نام پس‌انتشار برگرفته از این واقعیت است که محاسبه‌ی گرادیان از آخرین لایه‌ی وزن‌ها آغاز شده و به سوی گرادیان‌های اولین‌ لایه‌، یعنی به سمت عقب، حرکت می‌کند. بنابراین خطای لایه‌ی k وابسته به لایه‌ی بعدی یعنی k+1 است.

نحوه‌ی کار الگوریتم پس‌انتشار را می‌توان در این گام‌ها خلاصه کرد:

  1. انتشار رو به جلو را برای هر جفت ورودی-خروجی محاسبه می‌کند؛
  2. انتشار رو به عقب هر جفت را محاسبه می‌کند؛
  3. گرادیان‌ها را ترکیب می‌کند؛
  4. وزن‌ها را بر اساس نرخ یادگیری و گرادیان کلی، به روزرسانی می‌کند.

این مقاله به خوبی مبحث پس‌انتشار را پوشش داده و برای مبحث استخدام یادگیری عمیق مناسب است.

  1. شبکه‌های عصبی پیچشی

شبکه‌ی عصبی پیچشی (CNN) نوعی شبکه‌ی عصبی است که به ویژگی‌های مختلف ورودی (که اغلب یک تصویر و یا بخشی از یک متن می­باشد.) مقادیر اهمیت اختصاص داده و سپس یک خروجی تولید می‌کند. آن‌چه باعث مزیت CNNها نسبت به شبکه‌های عصبی پیش‌خور می‌شود این است که وابستگی‌های فضایی (پیکسلی) سراسر تصویر، و در نتیجه ترکیب تصویر را بهتر درک می‌کند.

CNNها در واقع یک عملیات ریاضیاتی به نام کانولوشن اجرا می‌کنند. طبق تعریف ویکی‌پدیا، کانولوشن یک عملیات ریاضیاتی است که روی دو تابع انجام می‌شود و خروجی آن، تابع سومی است که نشان می‌دهد شکل یکی از آن توابع چطور توسط دیگری تغییر می‌کند. پس CNN به جای ضرب‌های ماتریسی معمولی، حداقل در یکی از لایه‌های خود، از عملیات کانولوشن استفاده می‌کند.

  1. شبکه‌های عصبی بازگشتی

اگر مشتاق استخدام یادگیری عمیق هستید باید بدانید شبکه‌های عصبی بازگشتی (RNN) نوع دیگری از شبکه‌های عصبی هستند که به خاطر قابلیت پردازش داده‌هایی با اندازه‌های گوناگون، روی داده‌های توالی عملکرد بسیار خوبی از خود نشان می‌دهند. RNNها علاوه بر ورودی‌های فعلی، ورودی‌های قبلی را هم درنظر می‌گیرند؛ بنابراین یک ورودی خاص می‌تواند بر اساس ورودی‌های قبلی، خروجی‌های متفاوتی تولید کند.

از نظر فنی، RNNها گروهی از شبکه‌های عصبی هستند که اتصالات بین گره‌هایشان، علاوه بر یک توالی زمانی، یک گراف جهت‌دار ایجاد می‌کند و بدین ترتیب آن‌ها را قادر می‌سازد از حافظه‌ی داخلی خود برای پردازش توالی‌هایی با طول متغیر استفاده کنند.

به بیان خلاصه، RNNها نوعی از شبکه‌های عصبی هستند که اساساً روی داده‌های توالی یا سری‌های زمانی به کار می‌روند.

  1. شبکه‌های حافظه‌ی کوتاه‌مدت بلند (LSTM)

شبکه‌های LSTM نوعی از شبکه های عصبی بازگشتی هستند که برای جبران یکی از نقاط ضعف RNNها یعنی حافظه‌ی کوتاه‌مدت، ساخته شده‌اند و برای استخدام یادگیری عمیق باید با آن آشنا باشید.

به بیان دقیق‌تر، اگر یک توالی طولانی داشته باشیم (برای مثال رشته‌ای با بیشتر از ۵-۱۰ گام)، RNNها اطلاعات مربوط به گام‌های اول را فراموش خواهند کرد. به عنوان مثال، اگر یک پارگراف را به RNN تغذیه کنیم، احتمال نادیده گرفته شدن اطلاعات ابتدای پارگراف وجود دارد.

LSTMها برای حل این مشکل به وجود آمدند.

در این مطلب می‌توانید اطلاعات بیشتری در مورد LSTMها به دست آورید.

  1. تعریف وزن

هدف از تعریف وزن اطمینان حاصل کردن از این است که شبکه‌ی عصبی به یک راهکار بیهوده همگرایی نخواهد داشت.

اگر مقدار تعریف‌شده برای همه‌ی وزن‌ها یکی باشد (برای مثال همه ۰ باشند)، همه‌ی واحدها سیگنالی دقیقاً یکسان دریافت می‌کنند؛ در نتیجه، لایه‌ها طوری رفتار می‌کنند که فقط یک سلول واحد وجود دارد.

بنابراین، باید به صورت تصادفی مقادیر نزدیک صفر، اما نه خود صفر، را به وزن‌ها اختصاص دهیم. الگوریتم بهینه‌سازی تصادفی که برای آموزش مدل به کار می‌رود از این قاعده استثناست.

  1. مقایسه گرادیان کاهشی تصادفی با گرادیان کاهشی دسته­ای

افراد مایل به استخدام یادگیری عمیق باید بدانند که گرادیان کاهشی دسته­ای و گرادیان کاهشی تصادفی دو روش متفاوت برای محاسبه‌ی گرادیان هستند.

گرادیان کاهشی دسته‌­ای، گرادیان را بر اساس همه‌ی دیتاست محاسبه می‌کند. این روش در دیتاست‌های بزرگ، سرعت پایینی خواهد داشت، اما برای هموارسازی یا واگرا شدن منیفلد خطا بهتر است.

در روش گرادیان کاهشی تصادفی، گرادیان در هر بازه‌ی زمانی، بر اساس یک نمونه‌ی آموزشی واحد محاسبه می‌شود. به همین خاطر، این روش از نظر محاسباتی سریع‌تر و کم‌هزینه‌تر است. با این حال، در این روش، بعد از رسیدن به کمینه‌ی سراسری، جستجو در اطراف همچنان ادامه می‌باید. نتیجه‌ی این روش قابل‌قبول است، اما بهینه نیست.

  1. هایپرپارامترها

هایپرپارامترها متغیرهایی هستند که ساختار شبکه را تنظیم می‌کنند و بر نحوه‌ی آموزش آن نظارت دارند. از جمله هایپرپارامترهای متداول می‌توان به این موارد اشاره کرد:

  • پارامترهای معماری مدل همچون تعداد لایه‌ها، تعداد واحدهای نهان، و …؛
  • نرخ یادگیری (آلفا)؛
  • تعریف وزن‌های شبکه؛
  • تعداد دوره‌ها (دوره به معنی یک چرخه‌ی کامل در دیتاست آموزشی است)
  • اندازه‌ی بسته‌داده
  1. نرخ یادگیری

نرخ یادگیری یکی از هایپرپارامترهای شبکه‌های عصبی است که بر اساس خطای برآورد شده در هربار به روزرسانی وزن‌ها، میزان انطباق مدل را تعیین می‌کند.

اگر نرخ یادگیری خیلی پایین باشد، سرعت آموزش مدل آهسته خواهد بود؛ زیرا در هر تکرار، وزن‌های مدل به حداقل میزان ممکن به روزرسانی خواهند شد. به همین دلیل، قبل از رسیدن به کمینه، باید به‌روزرسانی‌های زیادی انجام شود.

اگر نرخ یادگیری خیلی بالا باشد، توابع زیان رفتاری واگرا خواهند داشت. زیرا در به روزرسانی وزن‌ها، تغییراتی چشم‌گیر رخ می‌دهد. این رفتار ممکن است آنقدر شدید باشد که تابع هیچ‌گاه همگرا نشود.

منبع: هوشیو