جایگاه اخلاق در هوش مصنوعی چیست؟
به گزارش ما دیجیتال با عنایت به سرعت چشم گیر رشد هوش مصنوعی و كاربردهای آن در زمینه های متعدد، تأثیر این فناوری بر اخلاق اجتماعی سؤال هایی به وجود آورده است.
زومیت نوشت: فناوری اطلاعات دیجیتال دسترسی همه گیر به اطلاعات را در هر زمان و هر نقطه ای آسان كرده است. این روند تأثیر قابل ملاحظه ای بر شكل گیری تمام ابعاد جامعه از تولید تا توزیع صنعتی تا مصرف كالاها و خدمات گذاشته است. تأثیر فناوری اطلاعات دیجیتال مانند تحولات فناوری در گذشته بسیار فراگیر است؛ به صورتی كه انسان نه تنها خویش را با آن تطبیق می دهد؛ بلكه رفتار خویش را هم منطبق با آن تغییر می دهد. امروزه، فناوری اطلاعات دیجیتال نحوه ی تعامل افراد با یكدیگر در جامعه و حتی شراكت با دیگران را هم تعریف می كند. روابط بازتعریف بین مصرف كنندگان و تولیدكنندگان و تأمین كنندگان؛ و صنایع و نیروهای كار؛ و عرضه دهندگان خدمات و مشتریان؛ و دوستان و شركا به تغییرات قابل ملاحظه ای در جوامع منجر گردیده است كه می تواند هشداری برای نتیجه گیری های اخلاقی باشد. خیلی زود انسان امروزی با موج بعدی تحولات فناوری روبه رو خواهد شد: هوش مصنوعی. انقلاب دیجیتال اواخر قرن بیستم دسترسی به اطلاعات را بسیار ساده كرده است و امكان تصمیم گیری سریع را فراهم می كند؛ به صورتی كه برای مثال، سازمان ها صرفا به اتخاذ تصمیم های بنیادی اكتفا می كنند و سایر تصمیم ها را واگذار می كنند.
هوش مصنوعی در حال تغییر است و با خودكارسازی فرآیند تصمیم گیری، نویدبخش نتایج باكیفیت تر و بهبود بازدهی است. موفقیت های سیستم های بازی هوش مصنوعی در شكست قهرمان شطرنج گری كاسپاروف و قهرمان Go، كی جای، ابعاد كیفی هوش مصنوعی و برتری آن بر انسان در محاسباتی مثل تأثیر تصمیم گیری لحظه ای بر حركت های احتمالی آینده را ثابت می كنند. متأسفانه هوش مصنوعی در فرآیند تصمیم گیری، شفافیت، قابلیت توصیف، قابلیت پیش گویی، قابلیت آموزش، قابلیت محاسبه ی حركت انسانی را حذف كرده و ابهام را جایگزین آنها می كند. منطق حركت نه تنها برای بازیكنان، بلكه برای خالق برنامه هم مجهول است. در چنین شرایطی، وقتی هوش مصنوعی آغاز به تصمیم گیری می كند، دیگر اثری از شفافیت و قابلیت پیش گویی دیده نمی گردد. حالا فرض كنید كودكی از والدین خود برای تماشای فیلم با دوستانش اجازه بخواهد و والدین موافقت می كنند، یك هفته بعد، كودك دیگر همان درخواست را می كند؛ اما این دفعه والدین رد می كنند. این داستان ساده، مسئله ی نابرابری و سلیقه محوری را مطرح می كند. برای اجتناب از افترا سلیقه محوری، والدین به كودك خود توضیح می دهند كه پیش از دریافت پول توجیبی باید تكالیف خویش را انجام دهد. در صورتیكه والدین به كودك خود دلیل این كار را توضیح ندهند، احتمال شدت گرفتن تنش در خانواده وجود دارد. حالا فرض كنید سیستم هوش مصنوعی چنین نقشی را ایفا كند كه از هزاران خانواده در موقعیت های مختلف داده جمع آوری كرده است. سیستم با بررسی پیامد اجازه دادن در خانواده ها می تواند این طور نتیجه بگیرد كه یكی از بچه ها می تواند پول توجیبی بگیرد؛ در حالیكه دیگری مجاز به دریافت پول نیست. با این وجود، سیستم هوش مصنوعی نمی تواند دلیل كار خویش را توضیح دهد؛ بلكه فقط می تواند با وزن دهی به معیارهایی مثل رنگ مو، وزن، قد و دیگر مشخصات كودك، بهترین تصمیم ممكن را برای خانواده های دیگر هم اتخاذ كند. این سیستم چگونه كار می كند؟ در دادگاه های قدیم، حتی در صورت یكسان نبودن شرایط و شباهت تقریبی آنها، تصمیم گیری نهایی برپایه تلفیقی از حكم ها اتخاذ می شد. این در شرایطی است كه هوش مصنوعی به رأی بر اساس سابقه یا قاعده ی سابقه نیازی ندارد. تصمیم های هوش مصنوعی می توانند برای انسان ها ساختگی به نظر برسند؛ چونكه معمولا انسان ها به مجموعه ی محدودی از تجربه های مستقیم و غیرمستقیم تمایل دارند؛ در حالیكه ماشین ها به مجموعه ی گسترده ای از داده ها دسترسی دارند.
انسان ها نمی توانند با دقت زیاد تجربیات خویش را در بازه ی زمانی طولانی مدت جست وجو كنند؛ در حالیكه این كار برای ماشین بسیار ساده است. انسان ها معمولا معیارهایی را حذف می كنند كه به نظر غیرمرتبط یا غیرمنطقی می رسند؛ در حالیكه ماشین معمولا چیزی را حذف نمی نماید. درنتیجه، ماشین امكان دارد تصمیم های غیرمرتبط باسابقه را اتخاذ كند كه در مقیاس درك پذیر انسان قرار ندارد. با حركت سریع كسب وكارها و جوامع به سمت هوش مصنوعی و بهبود تصمیم گیری در افق زمانی طولانی تر، انسان به علت چشم انداز محدود عقب نشینی می كند و ناامید می شود و تنها ارزش برای عملكرد صحیح جامعه، یعنی اعتماد، هم به مرور كاسته می شود. برای درك میزان ساختگی بودن تصمیم های هوش مصنوعی، باید روش تصمیم گیری انسان را بررسی كرد. انسان ها معمولا برپایه مجموعه ای از قوانین آشكار یا روابط مبتنی بر پیامدگرایی و تركیب تصمیم می گیرند. انسان ها در مقابل اطلاعات مرتبط برای تصمیم گیری گزینشی عمل می كنند؛ اما ماشین ها به صورت غیرگزینشی عمل می كنند و حتی معیارهایی را در نظر می گیرند كه در روند تصمیم گیری برای انسان اهمیتی ندارند. مثال های بی شماری از این نمونه وجود دارد كه می توان به غیرفعال سازی ربات چت مایكروسافت بعد از ارسال متن های ضدیهودی در توییتر یا بررسی دانشگاه بوتسون اشاره نمود كه رابطه ی جنسیتی كلماتی مثل Boss و Architect و Financier با مردان و رابطه ی جنسیتی كلماتی مثل Nurse و Receptionist با زنان را آشكار كرد. این خروجی ها را احیانا داده ها تولید می كنند؛ اما در تضاد با ارزش های آشكار انسانی هستند. اگر فرایندهای داده محور به خروجی الگوریتم های هوش مصنوعی وابسته باشند، تصمیم های انحرافی را به بار خواهند آورد كه اغلب اوقات در تضاد با ارزش های اخلاقی هستند. نفوذناپذیری هوش مصنوعی مانع از تصمیم گیری صحیح می شود در سال ۲۰۱۶، ProPublica شواهد قابل ملاحظه ای از این دست را عرضه داد. برای مثال، دادگاه های ایالات متحده از برنامه ای كامپیوتری بهره برده بودند كه به اشتباه متهمان سیاه پوست را كه در بازه ای دوساله مرتكب جرمی نشده بودند، بعنوان مجرم با نرخ دوبرابر متهمان سیاه پوست بار دیگر پرچم گذاری كرده بود (۴۵ در مقایسه با ۲۳ درصد). این در شرایطی است كه اگر انسانی این كار را انجام می داد، لقب نژادپرست به او داده می شد. هوش مصنوعی می تواند بین تجربیات جمعی و ارزش های آشكار جدایی بیندازد. تجربه های جمعی ایستا نیستند؛ بلكه برپایه تصمیم های مهم اجتماعی شكل می گیرند. تصمیم های اجتماعی هم برپایه ارزش های اخلاقی اتخاذ می شوند؛ بنابراین، آیا فرآیند تصمیم گیری به ماشینی واگذار می شود كه صرفا درباره ی گذشته به یادگیری می پردازد نه آینده؟ با عنایت به مقیاس كاربردهای هوش مصنوعی در زمینه هایی مثل تشخیص پزشكی، خدمات مالی و نظارت بر كارمند، حتی تغییرات كوچك هم نتایج شدید خواهند داشت. از آنجائیكه روزبه روز عملكرد الگوریتم ها در زمینه ی پیش گویی بهبود پیدا می كند، منطق ناظر بر چنین تصمیم هایی هم نفوذناپذیر خواهند شد. بر همین اساس، انسان دیدگاه جامع تصمیم گیری را از دست می دهد و تمام اصول گذشته را كنار می گذارد. در بعضی نمونه ها، این مسئله می تواند غیراخلاقی و غیرقانونی و حتی كوته بینانه باشد. برای مثال، الگوریتم تكرار جرم اصولی مثل سابقه ی بی گناهی و برابری فرصت ها را نادیده گرفته است. سازگاری یكی از پیش نیازهای لازم اخلاق و یكپارچه سازی است. تصمیم ها باید به استانداردهایی بیشتر از دقت آماری وابسته باشند. قرن ها است كه فضیلت های مشتركی مثل اعتماد متقابل، كاهش آسیب، برابری و عدالت خویش را بعنوان شاخصهای بقای هرگونه سیستم استنتاجی ثابت كرده اند. بدون سازگاری منطقی، سیستم های هوش مصنوعی از ثبات و پاسخ گویی محروم می شوند. ثبات و پاسخ گویی دو عامل اساسی برای اعتمادسازی در طبیعت به شمار می روند. نفوذناپذیری تصمیم های داده محور با ایجاد شكاف بین تمایل های اخلاقی و استدلال های منطقی، مانع از دخالت در فرایندهای تصمیم گیری می شود. دنیای جدید انسان این گونه است؛ جایی كه تصمیم های پیچیده به انتخاب های انعكاسی تقلیل می یابند و برپایه خروجی های نظارت شده اعمال می شوند؛ جایی كه پیچیدگی به آسانی تبدیل می شود و فناپذیری به كاربردپذیری. امروزه، ادراك انسان از اخلاق به منزله ی چارچوبی برای تصمیم گیری در نظر گرفته می شود. مدت زیادی نیست كه تصمیم گیری های انسان، سایه ی شك را بر اخلاق انداخته است. 2121
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب