یادگیری ماشینی چیست و چه مفهومی دارد؟

یادگیری ماشینی

یادگیری ماشین

آرتور ساموئل، پیشگام آمریکایی در بازی های رایانه ای و هوش مصنوعی، در سال ۱۹۵۹ در حالی که برای IBM کار می کرد، اصطلاح “یادگیری ماشینی” را ابداع کرد. انگیزه آن منطق شناسی و نظریه یادگیری محاسباتی بود. یادگیری ماشینی مطالعه و ساخت الگوریتم هایی را بررسی می کند که می توانند بر اساس داده ها یاد بگیرند و پیش بینی کنند – چنین الگوریتم هایی از آموزش برنامه پیروی نمی کنند. و ذهن را با مدل سازی داده های ورودی نمونه پیش بینی یا یافته کنید.

یادگیری ماشینی در کارهای محاسباتی استفاده می شود. طراحی و برنامه‌نویسی الگوریتم‌های دقیق با عملکرد مناسب دشوار یا غیرممکن است. برخی از برنامه‌ها شامل فیلتر کردن ایمیل، شناسایی مزاحمان اینترنتی یا بدافزارهای داخلی هستند که به دنبال ورود اطلاعات هستند: کاراکتر خوان نوری (OCR)، یادگیری رتبه‌بندی و بینایی ماشین.

یادگیری ماشینی جزئی از علم کامپیوتر است که کامپیوتر را به یادگیری بدون برنامه نویسی صریح تشویق می کند.

یادگیری ماشین تقریباً با آمار محاسباتی مرتبط است (و اغلب با آن همپوشانی دارد) که پیش‌بینی رایانه‌ای است و با بهینه‌سازی ریاضی مرتبط است. که همچنین روش ها، نظریه ها و کاربردها را ارائه می دهد. او انجام می دهد. یادگیری ماشین گاهی با داده کاوی ادغام می شود. تمرکز این زیرمجموعه بر تجزیه و تحلیل داده های تجربی است و به عنوان یادگیری بدون نظارت شناخته می شود. یادگیری ماشینی همچنین می تواند بدون نظارت باشد و برای یادگیری و به خاطر سپردن شکل اولیه رفتار موجودات مختلف و سپس یافتن استثناهای قابل توجه استفاده شود.

در تجزیه و تحلیل داده ها، یادگیری ماشین روشی برای طراحی الگوریتم ها و مدل های پیچیده مورد استفاده برای پیش بینی است. در صنعت، این به عنوان تجزیه و تحلیل پیش بینی شناخته می شود. این مدل‌های تحلیلی به محققان، دانشمندان داده، مهندسان و تحلیل‌گران اجازه می‌دهند تا «تصمیم‌ها و نتایج قابل اعتماد و قابل تکرار» بگیرند و با یادگیری در مورد روابط و روندهای گذشته، «یخبندان‌های پنهان» را کشف کنند.

طبق چرخه تبلیغات گارتنر در سال ۲۰۱۶، یادگیری ماشین اکنون در مرحله “اوج انتظارات متورم” است. پیاده سازی موثر یادگیری ماشین پیچیده است زیرا مدل سازی دشوار و اغلب است. داده های آموزشی کافی در دسترس نیست، در نتیجه برنامه های یادگیری ماشین اغلب با شکست مواجه می شوند.

تاریخچه یادگیری ماشین و ارتباط با سایر حوزه ها

یادگیری ماشینی فراتر از هوش مصنوعی است. در روزهای اولیه هوش مصنوعی به عنوان یک حوزه علمی، برخی از محققان ماشین‌ها را ساختند که از داده‌ها یاد بگیرند. آنها سعی کردند این مشکل را با روش‌های نمادین مختلف حل کنند و «شبکه‌های عصبی» نامیدند. این روش‌ها اغلب پرسپترون‌ها و مدل‌های دیگر بودند که بعداً مشخص شد که طراحی مجدد مدل‌های خطی تعمیم‌یافته آماری است. از استدلال احتمالی به ویژه در تشخیص های پزشکی مکانیزه استفاده شد.

با این حال، تاکید روزافزون بر روش‌های منطقی و مبتنی بر دانش، شکافی بین هوش مصنوعی (هوش مصنوعی) و یادگیری ماشین ایجاد کرده است. سیستم های احتمال پر از مشکلات نظری و عملی برای به دست آوردن و نمایش داده ها بودند. تا سال ۱۹۸۰، سیستم‌های سایبری بر هوش مصنوعی بیشتر می‌شدند و آمار دیگر مرتبط نبود.

کار بر روی یادگیری نمادین / مبتنی بر دانش در حوزه هوش مصنوعی ادامه یافت و منجر به برنامه‌نویسی منطق استقرایی شد. اما خط سیر آماری سایر تحقیقات فراتر از حوزه هوش مصنوعی بود و در الگوسازی و بازیابی اطلاعات دیده می شد. تحقیقات روی شبکه های عصبی نیز تقریباً در همان زمان توسط هوش مصنوعی و علوم رایانه (CS) رد شد. این مسیر خارج از AI/CS نیز توسط محققان رشته های دیگر از جمله Hopfield، Rumelhart و Hinton تحت عنوان Connectionism دنبال شد. موفقیت اصلی آنها در اواسط دهه ۱۹۸۰ و با انتشار مجدد به دست آمد.

یادگیری ماشینی در دهه ۱۹۹۰ پس از احیا به عنوان یک رشته جداگانه شروع به درخشش کرد.

این رشته تاکید خود را از هوش مصنوعی به درگیر شدن با مسائل قابل حل با ماهیت عملی تغییر داد. تمرکز خود را از روش‌های نمادینی که از هوش مصنوعی به ارث برده بود به فرم‌ها معطوف کرد. و مدل هایی که از آمار و شانس به ارث برده بود، قرض گرفته شد، منتقل شد. این حوزه همچنین از اطلاعات دیجیتالی که روز به روز در دسترس تر می شد و امکان توزیع آن در اینترنت بهره برد.

یادگیری ماشین و داده کاوی اغلب از روش های مشابهی استفاده می کنند و به طور قابل توجهی همپوشانی دارند. اما در حالی که یادگیری ماشین بر پیش‌بینی مبتنی بر ویژگی‌های شناخته‌شده آموخته‌شده از داده‌های آموزشی تمرکز دارد، داده‌کاوی بر کشف ویژگی‌ها تمرکز دارد. مجهول بر روی داده ها تمرکز می کند (این مرحله تجزیه و تحلیل استخراج دانش در پایگاه داده است).

داده کاوی از چندین روش یادگیری ماشینی استفاده می کند اما با اهداف متفاوت. از سوی دیگر، یادگیری ماشینی از تکنیک های داده کاوی به عنوان “یادگیری بدون نظارت” یا به عنوان یک مرحله پیش پردازش برای بهبود دقت یادگیرنده استفاده می کند. بیشتر سردرگمی بین این دو رشته (اغلب با کنفرانس‌های مجزا. و مجلات، به جز ECML PKDD) از مفروضات اساسی آنها ناشی می‌شود: در یادگیری ماشین، عملکرد معمولاً با توانایی بازتولید دانش شناخته شده ارزیابی می‌شود.

در حالی که در استخراج دانش و داده کاوی (KDD)، فعالیت حیاتی کشف دانش ناشناخته قبلی است. یکی از روش های نظارت نشده (روش ناآگاهانه) به سرعت سایر روش های نظارت شده را که به دانش عمومی رسیده است شکست می دهد. در حالی که در یک فعالیت معمولی KDD، به دلیل عدم ورود به داده های آموزشی، می توان به روش های نظارت شده دسترسی داشت. استفاده نمی شوند.

جمع بندی

برای بهترین عملکرد در چارچوب استنتاج، پیچیدگی این فرض باید به اندازه فرآیند بافت داده پیچیده باشد.. اگر پیچیدگی مدل در پاسخ افزایش یابد، خطای آموزش کاهش می یابد. اما اگر فرضیه بیش از حد پیچیده باشد، مدل در معرض بیش از حد برازش قرار می گیرد و تعمیم ضعیف است.

علاوه بر مرزهای عملکردی، نظریه پردازان یادگیری محاسباتی پیچیدگی زمان و امکان یادگیری را نیز مطالعه می کنند. در تئوری یادگیری محاسباتی، یک محاسبه زمانی ممکن است که در زمان چند مرحله ای انجام شود. دو نوع پیچیدگی زمانی وجود دارد: نتایج مثبت نشان می‌دهد که توابع کلاس خاصی را می‌توان در زمان چند مرحله ای یاد گرفت، و اثرات نامطلوب نشان می‌دهد که دسته‌های خاص را نمی‌توان در زمان چند مرحله ای یا(polynomial) حفظ کرد در نهایت   اگرچه موضوع یادگیری ماشین و موضوعات مربوط به ان پیچیده هستند و فراگیری ان کار سختی است اما سعی کردیم در این مقاله مفاهیم را برای شما ساده کنیم .

آخرین نوشته ها

تماس با ما

 کرج، شاهین ویلا، بلوار امام خمینی ، خیابان نهم شرقی ، برج شاهین ،طبقه اول واحد2

 91014618

  info@shopingserver.net

با تلفن ثابت بدون پیش شماره قابل شماره گیری هست و در صورتی که با تلفن همراه قصد تماس گرفتن دارید از پیش شماره استان خود را اول شماره وارد نمایید.

سبحان لطیف کار

سبحان لطیف کار