سبد خرید
0

هیچ محصولی در سبد خرید نیست.

  • تمام دسته ها
  • آموزش
  • اسکریپت
  • امنیت
  • برنامه نویسی
  • پیشنهاد شگفت انگیز
  • سیستم عامل
  • کالی لینوکس

یادگیری عمیق چیست ؟

یادگیری عمیق چیست ؟ - سایبر لرن

یادگیری عمیق یا ( deep learning ) زیر مجموعه یادگیری ماشین است که در اصل یک شبکه عصبی است که از سه لایه یا بیشتر تشکیل شده است . این شبکه با الگوریتم های شبکه های عصبی مصنوعی تلاش میکنند که ساختار مغز را شبیه سازی کنند تا ماشین بتواند مانند انسان فکر کند . در این مقاله قصد داریم تا به صورت کامل از تاریخچه یادگیری عمیق و تمام گفته شده ها در مورد یادگیری عمیق صحبت کنیم پس با سایبر لرن همراه باشید .

Thank you for reading this post, don't forget to subscribe!

یادگیری عمیق چیست ؟

یادگیری عمیق و اگر بخواهیم به زبان ساده با شما درمیان بگذاریم ، یکسری تکنیک هایی است که برای یادگیری ماشین استفاده میشه ، در واقع مواردی رو به ماشین یاد میدهند که به صورت طبیعی هر روز برای انسان رخ میدهد ، با اینکار ماشین میتواند مانند انسان فکر و تصمیمی گیری کند . برای درک بهتر این موضوع برایتان یک مثال میزنم ؛ ماشین های خودران که به خودی خود رانندگی میکنند ، برای اینکه تابلوهای مختلف راهنمایی و رانندگی را با تیر برق اشتباه نگیرند با استفاده از فناوری یادگیری عمیق میتواند این موضوع را درک کنند و آنها را از هم جدا کنند . در سال های اخیر یادگیری عمیق مورد توجه قرار گرفته است ، با این فناوری انسان ها دستاوردهای زیادی را تجربه کرده اند که تا قبل از این موضوع برایشان غیرممکن بود .

الگوریتم یادگیری عمیق

یادگیری عمیق در واقع برپایه داده و شبکه عصبی است ، شبکه عصبی از لایه های مختلفی تشکیل شده است و برای هر لایه باید آموزش های جداگانه را ارائه داد . هر چیزی ویژگی های مختلفی داره ، برای مثال یک تصویر ساده 800 در 1000 پیکسل با رنگ RGB تقریبا 2 میلیون ویژگی داره و برای شناسایی هرکدام از آنها ماشین سنتی باید تک تک بررسی کند ، برای همین قاعدتا زمان زیادی صرف خواهد شد و در برخی از موارد شاید غیرممکن باشد . برای همین انسان ها به سمت یادگیری عمیق روی آورده اند ، هنگامی ویژگی 1000 تصویر را به ماشین آموزش میدهی برای تصویر بعدی ماشین میتواند با داده هایی که دارد زودتر ویژگی هارا بررسی کند و به شما گزارش دهد و در صورتی که ویژگی جدیدی را مشاهده کند در داده های خود ذخیره میکند و با همین روند پیشرفت میکند و سرعت بالاتری را به خود اختصاص میدهد .

3 مورد از اهداف هوش مصنوعی – کلیک کنید!

تاریخچه یادگیری عمیق

کشف یادگیری عمیق به سال 1943 بازمیگردد ، آن زمان والتر پیتز و وارن مک کالوچ یک مدل کامپیوتری بر اساس شبکه عصبی مغز درست کردند که این امکان را داشت تا از افکار انسان تقلید کند . از آن زمان تاکنون یادگیری عمیق درحال توسعه و تکامل بوده و دوبار در این مسیر وقف پیش آمده که این دوبار را زمستان های هوش مصنوعی می نامند .

توسعه الگوریتم های هوش مصنوعی در سال های 1965 تا 1970 ؛ اولین زمستان هوش مصنوعی

در سال های 1965 تا 1970 اولین کسی که الگوریتم هوش مصنوعی را توسعه داد شخصی به نام الکسی گریگوریویچ ایواخننکو بود . این شخص روش گروهی مدیریت داده ها را توسعه داد و شخص دیگیری با نام والنتین گریگوریویچ لاپا ، تکنیک های پیشبینی را در سال 1965 توسعه داد . این دو شخص از مدل های توابع چند جمله ای فعال استفاده و بعد آنهارا مورد تجزیه و تحلیل آماری قرار میداند . از هرلایه بهترین ویژگی های آماری را انتخاب میکردند و بعد به سراغ لایه بعدی میرفتند . در دهه 1970 اولین زمستان هوش مصنوعی رخ داد که دلیل اصلی آن کم شدن بودجه تحقیق درباره یادگیری عمیق و هوش مصنوعی بود . اما برخی از افراد بدون در نظر داشتن بودجه به تحقیقات خود ادامه دادند ولی خیلی از تحقیق ها به آینده موکول شد و نتیجه های آن عقب افتاد .

یادگیری عمیق چیست ؟

اولین شبکه عصبی کانولوشنال در سال 1979 

کونیهیکو فوکوشیما به عنوان اولین نفری که از شبکه عصبی کانولوشنال استفاده کرد شناخته میشود . او شبکه های عصبی را با لایه های چندگانه ادغام کرد و کانولوشن را طراحی کرد . در سال 1979 کاشیما یک شبکه عصبی مصنوعی با نام Neocognitron طراحی کرد و از یک طرح سلسه مراتبی و چند لایه استفاده میکرد . این شبکه عصبی الگوهای بصری را یادمیگرفت و با گذشت زمان قدرت بیشتری پیدا کرد . این طرح بگونه ای بود که میتوانستید ویژگی های مهم را به صورت دستی تنظیم کنید .

1985 تا 1997 زمستان دوم هوش مصنوعی : توسعه الگوریتم های یادگیری عمیق 

در سال 1989 شخصی با نام Yann LeCun یک شبکه عصبی کانولوشنال ارائه کرد که میتوانست اعداد دست نویس را بخواند . از این ابزار برای خواندن چک ها استفاده شد . در سال های 1995 تا 1990 بخاطر اینکه محققان هوش مصنوعی نتوانستت صحبت های خود را عملی کنند سرمایه گذاران خشمگین شدند و به همین ترتیب زمستان دوم هوش مصنوعی شروع شد . در این افراد زیادی بر روی تحقیق و توسعه یادگیری عمیق تلاش کردند و پیشرفت های خوبی هم شامل شد . در سال 1995 دو نفر به اسامی دانا کورتس و ولادیمیر واپنیک موفق شدند تا ماشینی برای نقشه برداری و شناسایی داده های مشابه طراحی کنند و آن را توسعه دهند . در همین سالها حافظه کوتاه مدت طولانی برای شبکه های عصبی توسعه یافت .

توسعه GPU ها و پروژه IMGENENT در سال های 1999 تا 2011 

اتفاقات که در بازه 1999 تا 2011 افتاد واقعا شگفت انگیز بود . مهم ترین گامی که برای هوش مصنوعی باید برداشته میشد ، برداشته شد . در یک بازه 10 ساله قدرت محاسبه کامپیوتر ها میشه گفت 1000 برابر شد و سرعت بیشتری به خود اخصتاص دادند . در این حین GPU ( واحدهای پردازشی گرافیکی ) توسعه یافتند . در این حال شبکه های عصبی شروع به رقابت با ماشین های بردار پشتیبان کردند ، یک شبکه عصبی در مقایسه با ماشین های بردار پشتیبان ، میتواند بهتر باشد اگر از داده های مشابه استفاده کند .

در سال 2000 شبکه های عصبی که با گردایان طراحی شده بودند به مشکلاتی برخوردند . این شبکه ها به گونه ای بودند که در لایه های پایین تر توسط لایه هایی بالایی آموزش داده نمیشدند برای اینکه هیچ سینگال یادگیری را دریافت نمیکردند و برای همین به مشکل خوردند . متخصصان و منابع شناسایی مشکل شروع به کار کردند و توانستند این مشکل را برطرف کنند .

سال 2001 یک فراخوانی توسط گروه گرانتر داده شد که فرصت تهایا رشد داده را سه بعدی توصیف کرد . در این صحبت اعلام کرد که آماده افزایش حجم و سرعت داده ها باشید ، این فراخوان برای آمادگی حجوم بیگ دیتا بود .

در سال 2009 فی فی لی ، استاد هوش مصنوعی در دانشگاه استنفورد پروژه imgenet را راه اندازی که در ابتدا حدود 14 میلیون تصویر برچسب دار را تهیه کرد . در اینترنت تصاویر بی برچسب پربود و برای یادگیری شبکه های عصبی نیاز به تصاویر برچسب دار بود . دکتر لی گفته بود داده های بزرگ روش یادگیری ماشین هارا تغییر میدهد و داده ها باعث یادگیری میشوند .

در سال های 2011 بخاطر توسعه GPU ها و افزایش چشمگیر سرعت آنها امکان آموزش شبکه های عصبی کانولوشنال بدون پیش آموزش لایه به لایه را فراهم ساخت . با افزایش سرعت مشخص که یادگیری عمیق چه مزایای قابل توجهی از نظر سرعت و کارایی دارد .

سال 2012 تاکنون و پروژه های درحال توسعه 

در سال 2012 توسط google brain نتایج آزمایش غیرمعمول The Cat Experiment منتشر شد . در این نتایج از آموزش غیرنظارت ذکر شده بود . شبکه های عصبی آموزش نظارت شده و با برچسب را فراهم میساخت مانند پروژه imgenet ، که در آن زمان گوگل نزدیک به 10 میلیون تصویر بدون برچسب که به صورت تصادفی از یوتیوب گرفته شده بود و به سیستم آموزش داده شد . در حالی که سیستم درحال آموزش دیدن بود که نورون در بالاترین سطح پیدا شد که نشان دهنده این است که بسیار به انسان نزدیک است . یادگیری بدون نظارت درحال حاضر یک بخش مهم از یادگیری عمیق است .

یادگیری عمیق هنوز درحال توسعه است و نیازمند ایده های خلاق و خوب است تا آن را کامل سازد .

 

36

موسس و بنیانگذار سایبر لرن ، فعال در زمینه هوش مصنوعی و طراحی سایت .

توسط
تومان