یادگیری ماشین
آرتور ساموئل، پیشگام آمریکایی در بازی های رایانه ای و هوش مصنوعی، در سال ۱۹۵۹ در حالی که برای IBM کار می کرد، اصطلاح “یادگیری ماشینی” را ابداع کرد. انگیزه آن منطق شناسی و نظریه یادگیری محاسباتی بود. یادگیری ماشینی مطالعه و ساخت الگوریتم هایی را بررسی می کند که می توانند بر اساس داده ها یاد بگیرند و پیش بینی کنند – چنین الگوریتم هایی از آموزش برنامه پیروی نمی کنند. و ذهن را با مدل سازی داده های ورودی نمونه پیش بینی یا یافته کنید.
یادگیری ماشینی در کارهای محاسباتی استفاده می شود. طراحی و برنامهنویسی الگوریتمهای دقیق با عملکرد مناسب دشوار یا غیرممکن است. برخی از برنامهها شامل فیلتر کردن ایمیل، شناسایی مزاحمان اینترنتی یا بدافزارهای داخلی هستند که به دنبال ورود اطلاعات هستند: کاراکتر خوان نوری (OCR)، یادگیری رتبهبندی و بینایی ماشین.
یادگیری ماشینی جزئی از علم کامپیوتر است که کامپیوتر را به یادگیری بدون برنامه نویسی صریح تشویق می کند.
یادگیری ماشین تقریباً با آمار محاسباتی مرتبط است (و اغلب با آن همپوشانی دارد) که پیشبینی رایانهای است و با بهینهسازی ریاضی مرتبط است. که همچنین روش ها، نظریه ها و کاربردها را ارائه می دهد. او انجام می دهد. یادگیری ماشین گاهی با داده کاوی ادغام می شود. تمرکز این زیرمجموعه بر تجزیه و تحلیل داده های تجربی است و به عنوان یادگیری بدون نظارت شناخته می شود. یادگیری ماشینی همچنین می تواند بدون نظارت باشد و برای یادگیری و به خاطر سپردن شکل اولیه رفتار موجودات مختلف و سپس یافتن استثناهای قابل توجه استفاده شود.
در تجزیه و تحلیل داده ها، یادگیری ماشین روشی برای طراحی الگوریتم ها و مدل های پیچیده مورد استفاده برای پیش بینی است. در صنعت، این به عنوان تجزیه و تحلیل پیش بینی شناخته می شود. این مدلهای تحلیلی به محققان، دانشمندان داده، مهندسان و تحلیلگران اجازه میدهند تا «تصمیمها و نتایج قابل اعتماد و قابل تکرار» بگیرند و با یادگیری در مورد روابط و روندهای گذشته، «یخبندانهای پنهان» را کشف کنند.
طبق چرخه تبلیغات گارتنر در سال ۲۰۱۶، یادگیری ماشین اکنون در مرحله “اوج انتظارات متورم” است. پیاده سازی موثر یادگیری ماشین پیچیده است زیرا مدل سازی دشوار و اغلب است. داده های آموزشی کافی در دسترس نیست، در نتیجه برنامه های یادگیری ماشین اغلب با شکست مواجه می شوند.
تاریخچه یادگیری ماشین و ارتباط با سایر حوزه ها
یادگیری ماشینی فراتر از هوش مصنوعی است. در روزهای اولیه هوش مصنوعی به عنوان یک حوزه علمی، برخی از محققان ماشینها را ساختند که از دادهها یاد بگیرند. آنها سعی کردند این مشکل را با روشهای نمادین مختلف حل کنند و «شبکههای عصبی» نامیدند. این روشها اغلب پرسپترونها و مدلهای دیگر بودند که بعداً مشخص شد که طراحی مجدد مدلهای خطی تعمیمیافته آماری است. از استدلال احتمالی به ویژه در تشخیص های پزشکی مکانیزه استفاده شد.
با این حال، تاکید روزافزون بر روشهای منطقی و مبتنی بر دانش، شکافی بین هوش مصنوعی (هوش مصنوعی) و یادگیری ماشین ایجاد کرده است. سیستم های احتمال پر از مشکلات نظری و عملی برای به دست آوردن و نمایش داده ها بودند. تا سال ۱۹۸۰، سیستمهای سایبری بر هوش مصنوعی بیشتر میشدند و آمار دیگر مرتبط نبود.
کار بر روی یادگیری نمادین / مبتنی بر دانش در حوزه هوش مصنوعی ادامه یافت و منجر به برنامهنویسی منطق استقرایی شد. اما خط سیر آماری سایر تحقیقات فراتر از حوزه هوش مصنوعی بود و در الگوسازی و بازیابی اطلاعات دیده می شد. تحقیقات روی شبکه های عصبی نیز تقریباً در همان زمان توسط هوش مصنوعی و علوم رایانه (CS) رد شد. این مسیر خارج از AI/CS نیز توسط محققان رشته های دیگر از جمله Hopfield، Rumelhart و Hinton تحت عنوان Connectionism دنبال شد. موفقیت اصلی آنها در اواسط دهه ۱۹۸۰ و با انتشار مجدد به دست آمد.
یادگیری ماشینی در دهه ۱۹۹۰ پس از احیا به عنوان یک رشته جداگانه شروع به درخشش کرد.
این رشته تاکید خود را از هوش مصنوعی به درگیر شدن با مسائل قابل حل با ماهیت عملی تغییر داد. تمرکز خود را از روشهای نمادینی که از هوش مصنوعی به ارث برده بود به فرمها معطوف کرد. و مدل هایی که از آمار و شانس به ارث برده بود، قرض گرفته شد، منتقل شد. این حوزه همچنین از اطلاعات دیجیتالی که روز به روز در دسترس تر می شد و امکان توزیع آن در اینترنت بهره برد.
یادگیری ماشین و داده کاوی اغلب از روش های مشابهی استفاده می کنند و به طور قابل توجهی همپوشانی دارند. اما در حالی که یادگیری ماشین بر پیشبینی مبتنی بر ویژگیهای شناختهشده آموختهشده از دادههای آموزشی تمرکز دارد، دادهکاوی بر کشف ویژگیها تمرکز دارد. مجهول بر روی داده ها تمرکز می کند (این مرحله تجزیه و تحلیل استخراج دانش در پایگاه داده است).
داده کاوی از چندین روش یادگیری ماشینی استفاده می کند اما با اهداف متفاوت. از سوی دیگر، یادگیری ماشینی از تکنیک های داده کاوی به عنوان “یادگیری بدون نظارت” یا به عنوان یک مرحله پیش پردازش برای بهبود دقت یادگیرنده استفاده می کند. بیشتر سردرگمی بین این دو رشته (اغلب با کنفرانسهای مجزا. و مجلات، به جز ECML PKDD) از مفروضات اساسی آنها ناشی میشود: در یادگیری ماشین، عملکرد معمولاً با توانایی بازتولید دانش شناخته شده ارزیابی میشود.
در حالی که در استخراج دانش و داده کاوی (KDD)، فعالیت حیاتی کشف دانش ناشناخته قبلی است. یکی از روش های نظارت نشده (روش ناآگاهانه) به سرعت سایر روش های نظارت شده را که به دانش عمومی رسیده است شکست می دهد. در حالی که در یک فعالیت معمولی KDD، به دلیل عدم ورود به داده های آموزشی، می توان به روش های نظارت شده دسترسی داشت. استفاده نمی شوند.
جمع بندی
برای بهترین عملکرد در چارچوب استنتاج، پیچیدگی این فرض باید به اندازه فرآیند بافت داده پیچیده باشد.. اگر پیچیدگی مدل در پاسخ افزایش یابد، خطای آموزش کاهش می یابد. اما اگر فرضیه بیش از حد پیچیده باشد، مدل در معرض بیش از حد برازش قرار می گیرد و تعمیم ضعیف است.
علاوه بر مرزهای عملکردی، نظریه پردازان یادگیری محاسباتی پیچیدگی زمان و امکان یادگیری را نیز مطالعه می کنند. در تئوری یادگیری محاسباتی، یک محاسبه زمانی ممکن است که در زمان چند مرحله ای انجام شود. دو نوع پیچیدگی زمانی وجود دارد: نتایج مثبت نشان میدهد که توابع کلاس خاصی را میتوان در زمان چند مرحله ای یاد گرفت، و اثرات نامطلوب نشان میدهد که دستههای خاص را نمیتوان در زمان چند مرحله ای یا(polynomial) حفظ کرد در نهایت اگرچه موضوع یادگیری ماشین و موضوعات مربوط به ان پیچیده هستند و فراگیری ان کار سختی است اما سعی کردیم در این مقاله مفاهیم را برای شما ساده کنیم .