افول حکمرانی سختگیرانه در هوش مصنوعی خیزش گفتمان خوش بینانه

افول حکمرانی سختگیرانه در هوش مصنوعی خیزش گفتمان خوش بینانه به گزارش ما دیجیتال، جریان هشداردهنده در رابطه با هوش مصنوعی طی سال گذشته بشکل چشم گیری به حاشیه رانده شده و گفتمانی تازه، با رنگ و بوی عمل گرایی و خوشبینی فناورانه عنوان شد.


به گزارش ما دیجیتال به نقل از مهر؛ در سالهای اخیر، نگرانی ها در رابطه با مخاطرات فاجعه بار هوش مصنوعی بشکل درحال افزایشی در فضای عمومی و حوزه سیاستگذاری جهانی مطرح گردیده است. طیف وسیعی از محققان، فناوران، دانشگاهیان و کنشگران اجتماعی نسبت به روند شتابان توسعه مدلهای زبانی و سامانه های خودکار اخطار داده اند؛ روندی که به زعم آنان، در صورت تداوم بدون ضوابط ایمنی و اخلاقی، می تواند پیامدهایی مرگبار و برگشت ناپذیر برای آینده بشریت به دنبال داشته باشد. این گروه که در گفتمان عمومی گاه با عنوان «AI doomers» شناخته می شوند، اعتقاد دارند ظهور سامانه های هوش مصنوعی فوق پیشرفته امکان دارد به تضعیف نهادهای دموکراتیک، تمرکز بی سابقه قدرت اطلاعاتی و کنترل در دست نخبگان فناور، دستکاری افکار عمومی و حتی بروز سناریوهایی منتهی به انقراض انسان منجر شود. اما در سال ۲۰۲۴، این جریان هشداردهنده که تا قبل از آن توانسته بود فضای سیاسی و رسانه ای را تا حدی تحت تاثیر قرار دهد، بشکل چشم گیری به حاشیه رانده شد و گفتمانی تازه، با رنگ و بوی عمل گرایی و خوشبینی فناورانه، جای آنرا گرفت؛ گفتمانی که در آن، هوش مصنوعی مولد نه بعنوان یک تهدید، بلکه به مثابه نیروی پیشران رشد اقتصادی، کارآمدی نهادی و نوآوری فناورانه تصویر می شد. این چرخش پارادایم نه تنها در محافل سیاست گذاری، بلکه در رسانه ها، بازارهای سرمایه گذاری و گفتمان عمومی هم بازتاب یافت و منافع آن، بیشتر از همه، متوجه شرکتهای بزرگ فناوری و نهادهای سرمایه گذاری خطرپذیر بود. نقطه عطف در ۲۰۲۳ و تغییر گفتمانی در ۲۰۲۴ سال ۲۰۲۳ را میتوان نقطه عطفی در شکل دهی و گسترش جنبش ایمنی هوش مصنوعی دانست. در این سال، مجموعه ای از وقایع پر اهمیت باعث شد تا هشدارها نسبت به خطرات بنیادین فناوری های هوش مصنوعی از حاشیه محافل دانشگاهی و تحقیقاتی خارج شده و به اولویت هایی در سطح سیاستگذاری کلان تبدیل شوند. چهره هایی سرشناس مانند ایلان ماسک بهمراه بیشتر از هزار پژوهشگر، استاد دانشگاه و مدیر فناوری، در اطلاعیه ای تاریخی خواهان توقف موقت توسعه مدلهای زبانی پیشرفته شدند تا فرصتی برای طراحی چارچوب های ایمنی و اخلاقی فراهم شود. در ادامه، نامه ای دیگر با امضای بعضی از برجسته ترین دانشمندان فعال در شرکت هایی چون «OpenAI»، دیپ مایند و گوگل منتشر گردید که در آن تصریح شده بود خطر انقراض بشریت ناشی از هوش مصنوعی باید همچون تهدیدات هسته ای، زیستی و اقلیمی به رسمیت شناخته شود. دولت ایالات متحده به رهبری جو بایدن در واکنش به این فشارهای فزاینده، فرمان اجرایی جامعی صادر کرد که هدف آن محافظت از مردم آمریکا در مقابل آثار منفی سامانه های هوش مصنوعی، همچون سوگیری الگوریتمی، تهدیدات امنیتی و صدمه های اقتصادی بود. همچنین، در تحولی بی سابقه، هیأت مدیره «OpenAI» تصمیم به برکناری مدیرعامل وقت، سم آلتمن گرفت و اعلام نمود که سطح اعتماد موردنیاز برای هدایت توسعه هوش مصنوعی جامع (AGI) از جانب وی تأمین نمی گردد. این اقدام، هرچند موقتی، نشان دهنده حساسیت بی سابقه نسبت به مسئولیت پذیری در برابر فناوری های تحول آفرین بود. با این وجود، این جریان پرشتاب و پرطنین که در سال ۲۰۲۳ توانسته بود توجه جهانیان را به خود جلب نماید، در سال ۲۰۲۴ با موجی از مقاومت مواجه گردید و به تدریج از مرکز گفتمان سیاستگذاری کنار رفت. خیزش گفتمان خوش بینانه و ضد تنظیم گری در سال ۲۰۲۴، گفتمان خوش بینانه نسبت به آینده هوش مصنوعی با حمایت گسترده شرکتهای بزرگ فناوری، صندوق های سرمایه گذاری خطرپذیر و کارآفرینان بانفوذ سیلیکون ولی بشکل گسترده تری رواج یافت. این جریان گفتمانی کوشش کرد تا روایتی مسلط از هوش مصنوعی بعنوان عامل نجات بخش اقتصاد، تضمین کننده برتری ملی و شتاب دهنده نوآوری شکل دهد؛ روایتی که در تقابل مستقیم با هشدارها بود. مارک اندریسن، بنیان گذار شرکت سرمایه گذاری «a16z»، در این سال، در مقاله ای پرسر و صدا با عنوان «چرا هوش مصنوعی جهان را نجات خواهد داد»، با لحنی قاطع و طعنه آمیز به رویکرد بدبینانه تاخت و آنرا فاقد بنیادهای عقلانی و علمی دانست. وی در این نوشتار، هوش مصنوعی را فرصتی تاریخی توصیف کرد که باید با تمام توان آنرا به کار گرفت، حتی اگر به قیمت عبور از ضوابط سنتی تنظیم گری باشد. اندریسن با استناد به منطق رقابت پذیری جهانی، بخصوص در مقابل چین، از بازتولید ایده معروف «سریع حرکت کن و همه چیز را به هم بزن» دفاع کرد و آنرا چاره ای ضروری برای تضمین جایگاه رهبری آمریکا در عصر حاضر دانست. هم زمان با گسترش این گفتمان خوش بینانه، حمایت نهادهای سیاسی از رویکرد ایمنی هم رو به افول گذاشت. بازگشت سم آلتمن به ریاست «OpenAI»، تنها چند روز بعد از برکناری جنجالی اش، نشانه ای از تثبیت مجدد نگاه تجاری و توسعه محور در رأس یکی از مهم ترین شرکتهای هوش مصنوعی جهان بود. هم زمان، گروهی از محققان حوزه ایمنی که پیشتر در این شرکت فعال بودند، در اعتراض به تغییر اولویت های سازمانی و کمرنگ شدن ملاحظات اخلاقی، آنرا ترک کردند. افزون بر این، فرمان اجرایی جو بایدن که در سال ۲۰۲۳ با هدف تقویت ایمنی و شفافیت در توسعه هوش مصنوعی صادر شده بود، در سال ۲۰۲۴ عملا بی اثر شد و با روی کار آمدن دونالد ترامپ در جایگاه رئیس جمهور منتخب، رسماً لغو شد. ترامپ و مشاوران نزدیکش که به طور عمده از چهره های مخالف تنظیم گری محسوب می شوند، صراحتاً اعلام نمودند که رویکرد نظارتی دولت پیشین مانعی برای نوآوری و تهدیدی برای رقابت پذیری آمریکا بوده است. این مجموعه تحولات، چرخش آشکار فضای سیاستگذاری ایالات متحده را از نگرانی های ایمنی به سمت اولویت های اقتصادی و ژئوپلیتیکی نمایان ساخت. لایحه «SB 1047»؛ صحنه تقابل رویکردها مهم ترین میدان تقابل میان دو طرف در سال ۲۰۲۴، لایحه «SB 1047» در ایالت کالیفرنیا بود؛ لایحه ای که با حمایت محقق هایی چون جفری هینتون و یوشوا بنجیو و به ابتکار سناتور اسکات وینر تدوین شد. هدف این لایحه، ایجاد نظامی ایمنی محور برای مهار مخاطرات بالقوه سامانه های پیشرفته هوش مصنوعی بود؛ مخاطراتی همچون حملات سایبری در مقیاس ملی، نتایج اقتصادی فاجعه بار و حتی سناریوهای تهدیدآمیز برای بقای انسان. لایحه با تعیین الزامات خاصی برای توسعه دهندگان مدلهای هوش مصنوعی بسیار بزرگ، همچون تعهد به ارزیابی ایمنی و عرضه گزارش های منظم به دولت ایالتی، کوشید چارچوبی قانونی برای کاهش ریسک های بلند مدت توسعه این فناوری فراهم آورد. لایحه مذکور با وجود مخالفت های گسترده، توانست از با موفقیت از مجلس قانون گذاری کالیفرنیا عبور کند، اما در مرحله نهایی، با وتوی فرماندار کالیفرنیا، گوین نیوسام مواجه گردید. نیوسام در توضیح تصمیم خود، تصریح کرد که «نمی توان با این لایحه همه مشکلات را حل کرد» و با این جمله، نوعی واقع گرایی اجرایی را بازتاب داد که در بین خیلی از سیاست گذاران رواج یافته است: اذعان به پیچیدگی های فنی و اجرایی تنظیم گری در حوزه ای که با سرعت بی سابقه درحال تحول است و فاقد ابزارهای نظارتی آزموده شده و کارآمد به حساب می آید. در مقابل این لایحه، موجی از مخالفت سازمان یافته از جانب شرکتهای سرمایه گذاری خطرپذیر، همچون «Y Combinator» و «a16z»، به راه افتاد. این نهادها با راه اندازی کمپین های تبلیغاتی گسترده، همچون انتشار نامه های سرگشاده و مصاحبه های رسانه ای، کوشیدند افکار عمومی و کارآفرینان جوان را نسبت به نتایج احتمالی این قانون نگران سازند. یکی از محوری ترین ادعاهای این کمپین، امکان تعقیب کیفری توسعه دهندگان به علت عرضه اطلاعات نادرست در گزارش های ایمنی بود. ادعایی که از جانب نهادهایی نظیر مؤسسه بروکینگز، تحریف حقیقت دانسته شد، چونکه لایحه صرفا به قاعده ای عمومی اشاره کرده بود بر مبنای این که درج اطلاعات نادرست در اسناد رسمی، می تواند مصداق شهادت دروغ تلقی شود؛ قاعده ای که پیشتر هم در نظام حقوقی وجود داشته و کمتر باعث پیگرد قضایی شده است. با این وجود، فضای رسانه ای ایجادشده توسط مخالفان سبب شد تا لایحه در افکار عمومی به مثابه تهدیدی ضد نوآوری و آزادی فناورانه جلوه کند. افول گفتمان ایمنی و نتایج اجتماعی سال ۲۰۲۴ نه تنها صحنه افول گفتمان فاجعه محور به هوش مصنوعی، بلکه دوره تثبیت و قدرت گیری روایتی فناورانه و اقتصادی بود که در آن مفاهیمی همچون رقابت راهبردی با چین، بهره برداری نظامی از ظرفیتهای هوش مصنوعی و تبدیل این فناوری به موتور محرک رشد اقتصادی، به صورت کامل بر نگرانی های اخلاقی، انسانی و ایمنی غلبه یافتند. در این گفتمان غالب، هوش مصنوعی نه تنها تهدید تلقی نمی شد، بلکه فرصتی راهبردی برای برتری ژئوپلیتیک و تسلط فناورانه محسوب می شد. استفاده گسترده از واژگان توسعه محور در بیانیه ها، نشست ها و اسناد سیاستی هم مبین تغییر لحن و اولویت گذاری سیاست گذاران بود؛ تغییری که در آن، هشدارها در رابطه با سناریوهای فاجعه بار بیشتر به چشم مانعی بر سر راه نوآوری تعبیر می شدند. با این وجود، جریان مدافع ایمنی، به رغم شکست های مقطعی، عقب ننشسته است. حامیان لایحه «SB 1047»، همچون نهادهایی مانند «Encode» و برخی سناتورهای ایالتی، اعلام نموده اند که در سال ۲۰۲۵ با نسخه ای اصلاح شده و احتمالا هدفمندتر، بازخواهند گشت. هدف آنها ایجاد تعادلی میان پویایی فناورانه و لزوم های اخلاقی و ایمنی در توسعه سامانه های پیشرفته هوش مصنوعی است. از طرفی، سرمایه گذاران و کنشگران مخالف تنظیم گری هم نشانه های روشنی از بسیج باردیگر منابع مالی، رسانه ای و سیاسی خود برای مواجهه با هرگونه مداخله قانونی بروز داده اند. چشم انداز این تقابل، از هم اینک نشانه هایی از یکی از جدی ترین رویارویی های سیاستگذاری در حوزه فناوری را در سال پیش رو ترسیم می کند. با وجود گفتمان غالب خوش بینانه، برخی رخدادها یادآور آن هستند که خطرات هوش مصنوعی، صرفا مفاهیمی تخیلی یا آینده نگر نیستند. به نظر می آید سال ۲۰۲۵ میدان جدیدی برای رویارویی گفتمان های متضاد در رابطه با آینده هوش مصنوعی باشد؛ از یک سو کوشش برای طراحی نظام های ایمنی و پاسخ گویی و از طرفی، مقاومت سازمان یافته در مقابل هرگونه تنظیم گری. اما حقیقت اینست که نادیده گرفتن تهدیدات، خود می تواند خطرناک ترین انتخاب باشد.


منبع:

1404/01/08
15:39:21
5.0/5
20
تگهای خبر: ابزار , دانش , سرمایه گذاری , شركت
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۳ بعلاوه ۵
پربیننده ترین در مادیجیتال

پربحث ترین در مادیجیتال

جدیدترین در مادیجیتال

madigital.ir - حقوق مادی و معنوی سایت ما دیجیتال محفوظ است

ما دیجیتال

اخبار دیجیتال و فناوری اطلاعات - مادیجیتال: نبض تپنده دنیای فناوری در دستان شما. آخرین اخبار دنیای تکنولوژی و IT را دنبال کنید