در اینجا خواهیم دید که چرا هوش مصنوعی (AI) باید بداند چه زمانی نیاز به کمک گرفتن از انسان است.
سیستمهای هوش مصنوعی ابزاری قدرتمند برای کسبوکارها و دولتها برای پردازش دادهها هستند. و به شرایط متغیر چه در بورس و چه در میدان جنگ پاسخ دهید. اما هنوز مواردی وجود دارد که هوش مصنوعی برای آنها آماده نیست.
ما دانشمندان کامپیوتری هستیم که برای درک و بهبود نحوه تعامل الگوریتم ها با جامعه کار می کنیم. سیستمهای هوش مصنوعی زمانی بهترین عملکرد را دارند که هدف دادههای واضح و باکیفیت باشد. مانند زمانی که از آنها خواسته می شود پس از یادگیری از تصاویر افراد دیگر، چهره های مختلف را به درستی تشخیص دهند.
یک الگوریتم (AI) با همکاری یک انسان میتواند از مزایا و کارایی تصمیمهای خوب هوش مصنوعی بدون گرفتار شدن در انتخابهای بد بهرهمند شود.
گاهی اوقات سیستمهای هوش مصنوعی آنقدر خوب کار میکنند که کاربران و ناظران از میزان درک این فناوری شگفتزده میشوند. با این حال، گاهی اوقات پیروزی به سختی قابل اندازه گیری است یا به اشتباه تعریف می شود، یا داده های تمرینی با وظیفه موجود مطابقت ندارد. در این موارد، الگوریتمهای هوش مصنوعی به روشهای غیرقابل پیشبینی و چشمگیر شکست میخورند. با این حال، همیشه فوراً مشخص نیست که مشکلی رخ داده است. در نتیجه اجتناب از اغراق و هیجان ضروری است. و مراقب باشید که هوش مصنوعی چه کاری می تواند انجام دهد و تصور نکنید که راه حلی که پیدا می کند همیشه راه حل مناسبی است.
هنگامی که الگوریتم ها کار می کنند، باید یک شبکه ایمنی وجود داشته باشد تا از آسیب به افراد جلوگیری شود. تحقیقات ما نشان داده است که الگوریتمها میتوانند مشکلات عملکرد را شناسایی کرده و در برخی موارد از انسان کمک بگیرند. به ویژه، ما پیشنهاد می کنیم که درخواست کمک از انسان ها می تواند به کاهش سوگیری الگوریتمی در برخی تنظیمات کمک کند.
تداوم نظارت انسان بر هوش مصنوعی
برای موقعیتهای پرخطر، اعتماد الگوریتم به نتیجه (اطمینان آن) – یعنی تخمین احتمالی که سیستم قادر به ارائه پاسخ صحیح خواهد بود – به اندازه خود نتیجه مهم است. افرادی که خروجی الگوریتمها را دریافت میکنند باید بدانند که تا چه حد باید نتایج را جدی بگیرند، نه اینکه فکر کنند این کار درست است زیرا رایانه این کار را انجام داده است.
سیستمهای هوش مصنوعی ابزاری قدرتمند برای کسبوکارها و دولتها برای پردازش دادهها و پاسخ به شرایط متغیر در بورس و میدان جنگ هستند. اخیراً محققان شروع به توسعه روشهایی برای شناسایی نابرابریها در الگوریتمها کردهاند و دادهها، حتی با تلاش بسیار کمتر، اصلاح شدهاند. الگوریتمها را میتوان برای شناسایی کاستیهای آنها برنامهریزی کرد – و با درخواست از یک انسان برای کمک به حل مشکل، پیگیری شود.
آیا هوش مصنوعی می تواند بهتر از انسان تصمیم بگیرد؟
ما می دانیم که هوش مصنوعی می تواند محاسبات را به سرعت کامل کند و الگوریتم های خود را توسعه دهد. الگوریتم های مشتق شده عمدتاً بر اساس نتایج استنباط شده از انسان هستند. حال بیایید از زاویه ای دیگر به موضوع نگاه کنیم، آیا هوش مصنوعی جدید می تواند الگوریتم هایی تولید کند که بهتر از انسان ها تصمیم بگیرند؟
پاسخ بدون شک “بله” است. روش یادگیری ماشینی می تواند داده های بیشتری را سریعتر از مغز انسان پردازش کند. این تکنیک به (AI) اجازه می دهد تا الگوهایی را در داده ها پیدا کند که بلافاصله برای انسان قابل مشاهده نیستند.
بنابراین، ما دادههای مستقل مرتبط با دادههای وابسته داریم اما از تصمیمات انسانی استنباط نشده است. این احتمال وجود دارد که هوش مصنوعی بتواند تصمیمات بهتری بگیرد.
اکنون بسیاری از انواع الگوریتم های هوش مصنوعی سطح قابلیت اطمینان داخلی را اندازه گیری می کنند. یعنی پیش بینی عملکرد آنها در تجزیه و تحلیل یک داده خاص. بسیاری از الگوریتمهای هوش مصنوعی نسبت به مردان سفیدپوست در تحلیل چهره اعتماد کمتری به چهرههای تیره و زنانه دارند. مشخص نیست که این موضوع چقدر برای مجریان قانون برای استفاده گسترده از این الگوریتم ها اهمیت داشته است.
هدف این است که (AI) مناطقی را پیدا کند که برای گروه های مختلف دقت یکسانی ندارند. هوش مصنوعی می تواند کار تصمیم گیری خود را در این ورودی ها به ناظر انسانی محول کند. این تکنیک به ویژه برای کارهای سنگین مانند مدیریت محتوا مناسب است.
ناظران محتوای انسانی نمی توانند سیل تصاویر ارسال شده در سایت های رسانه های اجتماعی را دنبال کنند. اما از سوی دیگر، مدیران محتوای هوش مصنوعی نیز از در نظر گرفتن دلایل پس از شناسایی نادرست بحث های گرایش جنسی به عنوان محتوای صریح یا به رسمیت شناختن اعلامیه استقلال به عنوان سخنان تنفرآمیز شناخته شده اند. این می تواند منجر به سانسور نادرست یک گروه جمعیتی یا سیاسی توسط گروه دیگر شود.
الگوریتم ها می توانند در یک گروه دقیق تر از گروه دیگر باشند.
برای دستیابی به بهترین ها در هر دو جهان، تحقیقات ما پیشنهاد می کند که همه محتوا را به طور خودکار با استفاده از همان روش های (AI) که امروزه رایج است، امتیاز دهید. سپس رویکرد ما از تکنیکهای جدید پیشنهادی برای قرار دادن خودکار نابرابریهای احتمالی در دقت الگوریتمها در گروههای مختلف محافظتشده افراد استفاده میکند و تصمیمگیری در مورد افراد خاص را به یک انسان تحویل میدهد. در نتیجه، الگوریتم می تواند در مورد افرادی که در مورد آنها تصمیم می گیرد بسیار خنثی باشد. و انسان ها در مورد افرادی که تصمیم الگوریتمی برای آنها ناگزیر مغرضانه است، تصمیم می گیرند.
به این ترتیب، هوش مصنوعی همچنان می تواند بیشتر تصمیم گیری ها را انجام دهد.
ضروری است که از اغراق و هیجان پرهیز کنید و مراقب باشید که هوش مصنوعی چه کاری می تواند انجام دهد و فکر نکنید که راه حلی که پیدا می کند همیشه درست است.
این وضعیتی را نشان می دهد که در آن یک الگوریتم هوش مصنوعی با همکاری یک انسان می تواند از مزایا و کارایی تصمیمات (AI) خوب بدون گرفتار شدن در انتخاب های بد بهره مند شود. در این صورت انسان ها زمان بیشتری برای کار روی مشکلات خواهند داشت. و انتخاب های مبهم که برای تضمین انصاف و عدالت حیاتی هستند.