تعامل انسان و هوش مصنوعی(AI) در تصمیم گیری

هوش مصنوعی

در اینجا خواهیم دید که چرا هوش مصنوعی (AI) باید بداند چه زمانی نیاز به کمک گرفتن از انسان است.

سیستم‌های هوش مصنوعی ابزاری قدرتمند برای کسب‌وکارها و دولت‌ها برای پردازش داده‌ها هستند. و به شرایط متغیر چه در بورس و چه در میدان جنگ پاسخ دهید. اما هنوز مواردی وجود دارد که هوش مصنوعی برای آنها آماده نیست.

ما دانشمندان کامپیوتری هستیم که برای درک و بهبود نحوه تعامل الگوریتم ها با جامعه کار می کنیم. سیستم‌های هوش مصنوعی زمانی بهترین عملکرد را دارند که هدف داده‌های واضح و باکیفیت باشد. مانند زمانی که از آنها خواسته می شود پس از یادگیری از تصاویر افراد دیگر، چهره های مختلف را به درستی تشخیص دهند.

یک الگوریتم (AI) با همکاری یک انسان می‌تواند از مزایا و کارایی تصمیم‌های خوب هوش مصنوعی بدون گرفتار شدن در انتخاب‌های بد بهره‌مند شود.

گاهی اوقات سیستم‌های هوش مصنوعی آنقدر خوب کار می‌کنند که کاربران و ناظران از میزان درک این فناوری شگفت‌زده می‌شوند. با این حال، گاهی اوقات پیروزی به سختی قابل اندازه گیری است یا به اشتباه تعریف می شود، یا داده های تمرینی با وظیفه موجود مطابقت ندارد. در این موارد، الگوریتم‌های هوش مصنوعی به روش‌های غیرقابل پیش‌بینی و چشمگیر شکست می‌خورند. با این حال، همیشه فوراً مشخص نیست که مشکلی رخ داده است. در نتیجه اجتناب از اغراق و هیجان ضروری است. و مراقب باشید که هوش مصنوعی چه کاری می تواند انجام دهد و تصور نکنید که راه حلی که پیدا می کند همیشه راه حل مناسبی است.

هنگامی که الگوریتم ها کار می کنند، باید یک شبکه ایمنی وجود داشته باشد تا از آسیب به افراد جلوگیری شود. تحقیقات ما نشان داده است که الگوریتم‌ها می‌توانند مشکلات عملکرد را شناسایی کرده و در برخی موارد از انسان کمک بگیرند. به ویژه، ما پیشنهاد می کنیم که درخواست کمک از انسان ها می تواند به کاهش سوگیری الگوریتمی در برخی تنظیمات کمک کند.

تداوم نظارت انسان بر هوش مصنوعی

برای موقعیت‌های پرخطر، اعتماد الگوریتم به نتیجه (اطمینان آن) – یعنی تخمین احتمالی که سیستم قادر به ارائه پاسخ صحیح خواهد بود – به اندازه خود نتیجه مهم است. افرادی که خروجی الگوریتم‌ها را دریافت می‌کنند باید بدانند که تا چه حد باید نتایج را جدی بگیرند، نه اینکه فکر کنند این کار درست است زیرا رایانه این کار را انجام داده است.

سیستم‌های هوش مصنوعی ابزاری قدرتمند برای کسب‌وکارها و دولت‌ها برای پردازش داده‌ها و پاسخ به شرایط متغیر در بورس و میدان جنگ هستند. اخیراً محققان شروع به توسعه روش‌هایی برای شناسایی نابرابری‌ها در الگوریتم‌ها کرده‌اند و داده‌ها، حتی با تلاش بسیار کمتر، اصلاح شده‌اند. الگوریتم‌ها را می‌توان برای شناسایی کاستی‌های آنها برنامه‌ریزی کرد – و با درخواست از یک انسان برای کمک به حل مشکل، پیگیری شود.

آیا هوش مصنوعی می تواند بهتر از انسان تصمیم بگیرد؟

ما می دانیم که هوش مصنوعی می تواند محاسبات را به سرعت کامل کند و الگوریتم های خود را توسعه دهد. الگوریتم های مشتق شده عمدتاً بر اساس نتایج استنباط شده از انسان هستند. حال بیایید از زاویه ای دیگر به موضوع نگاه کنیم، آیا هوش مصنوعی جدید می تواند الگوریتم هایی تولید کند که بهتر از انسان ها تصمیم بگیرند؟

پاسخ بدون شک “بله” است. روش یادگیری ماشینی می تواند داده های بیشتری را سریعتر از مغز انسان پردازش کند. این تکنیک به (AI) اجازه می دهد تا الگوهایی را در داده ها پیدا کند که بلافاصله برای انسان قابل مشاهده نیستند.

بنابراین، ما داده‌های مستقل مرتبط با داده‌های وابسته داریم اما از تصمیمات انسانی استنباط نشده است. این احتمال وجود دارد که هوش مصنوعی بتواند تصمیمات بهتری بگیرد.

اکنون بسیاری از انواع الگوریتم های هوش مصنوعی سطح قابلیت اطمینان داخلی را اندازه گیری می کنند. یعنی پیش بینی عملکرد آنها در تجزیه و تحلیل یک داده خاص. بسیاری از الگوریتم‌های هوش مصنوعی نسبت به مردان سفیدپوست در تحلیل چهره اعتماد کمتری به چهره‌های تیره و زنانه دارند. مشخص نیست که این موضوع چقدر برای مجریان قانون برای استفاده گسترده از این الگوریتم ها اهمیت داشته است.

هدف این است که (AI) مناطقی را پیدا کند که برای گروه های مختلف دقت یکسانی ندارند. هوش مصنوعی می تواند کار تصمیم گیری خود را در این ورودی ها به ناظر انسانی محول کند. این تکنیک به ویژه برای کارهای سنگین مانند مدیریت محتوا مناسب است.

ناظران محتوای انسانی نمی توانند سیل تصاویر ارسال شده در سایت های رسانه های اجتماعی را دنبال کنند. اما از سوی دیگر، مدیران محتوای هوش مصنوعی نیز از در نظر گرفتن دلایل پس از شناسایی نادرست بحث های گرایش جنسی به عنوان محتوای صریح یا به رسمیت شناختن اعلامیه استقلال به عنوان سخنان تنفرآمیز شناخته شده اند. این می تواند منجر به سانسور نادرست یک گروه جمعیتی یا سیاسی توسط گروه دیگر شود.

الگوریتم ها می توانند در یک گروه دقیق تر از گروه دیگر باشند.

برای دستیابی به بهترین ها در هر دو جهان، تحقیقات ما پیشنهاد می کند که همه محتوا را به طور خودکار با استفاده از همان روش های (AI) که امروزه رایج است، امتیاز دهید. سپس رویکرد ما از تکنیک‌های جدید پیشنهادی برای قرار دادن خودکار نابرابری‌های احتمالی در دقت الگوریتم‌ها در گروه‌های مختلف محافظت‌شده افراد استفاده می‌کند و تصمیم‌گیری در مورد افراد خاص را به یک انسان تحویل می‌دهد. در نتیجه، الگوریتم می تواند در مورد افرادی که در مورد آنها تصمیم می گیرد بسیار خنثی باشد. و انسان ها در مورد افرادی که تصمیم الگوریتمی برای آنها ناگزیر مغرضانه است، تصمیم می گیرند.

به این ترتیب، هوش مصنوعی همچنان می تواند بیشتر تصمیم گیری ها را انجام دهد.

ضروری است که از اغراق و هیجان پرهیز کنید و مراقب باشید که هوش مصنوعی چه کاری می تواند انجام دهد و فکر نکنید که راه حلی که پیدا می کند همیشه درست است.

این وضعیتی را نشان می دهد که در آن یک الگوریتم هوش مصنوعی با همکاری یک انسان می تواند از مزایا و کارایی تصمیمات (AI) خوب بدون گرفتار شدن در انتخاب های بد بهره مند شود. در این صورت انسان ها زمان بیشتری برای کار روی مشکلات خواهند داشت. و انتخاب های مبهم که برای تضمین انصاف و عدالت حیاتی هستند.

آخرین نوشته ها

تماس با ما

 کرج، شاهین ویلا، بلوار امام خمینی ، خیابان نهم شرقی ، برج شاهین ،طبقه اول واحد2

 91014618

  info@shopingserver.net

با تلفن ثابت بدون پیش شماره قابل شماره گیری هست و در صورتی که با تلفن همراه قصد تماس گرفتن دارید از پیش شماره استان خود را اول شماره وارد نمایید.

Erfan Akbarieh

Erfan Akbarieh

مطالب مرتبط