چت جی پی تی می تواند مولف یک مقاله علمی باشد؟

چت جی پی تی می تواند مولف یک مقاله علمی باشد؟ ما دیجیتال: عضو هیات علمی ایرانداک با پرداختن به جوانب اخلاقی به این پرسش پاسخ داد که آیا می توان مسئولیت نویسندگی یک مقاله را بر عهده هوش مصنوعی گذاشت یا خیر؟



به گزارش ما دیجیتال به نقل از مهر، دکتر رحمان شریف زاده در کرسی ترویجی «اخلاق و سیاست هوش مصنوعی» از سری پیش نشست های هشتمین دوره جایزه ملی فناوری اطلاعات که در ایرانداک برگزار گردید، در مورد اینکه «آیا می توان چت جی پی تی را به عنوان مولف شناسایی کرد؟»، اظهار داشت: چت جی پی تی محصول ترکیب NLP و یادگیری ماشین است. این ابزار در تولید متن به خوبی عمل کرده و یکی از جذابیت های این محصول است.
وی درباب امکانات چت جی پی تی اظهار داشت: این ابزار در مفهوم پردازی و تحلیل (تولید فرضیه استخراج ایده، طراحی پژوهش، فراتحلی، خلاصه سازی، مرور ادبیات، پیشنهاد روش شناسی، تفسیر و تحلیل داده ها، ارائه نقد و بازخورد)، نگارش پژوهش (ترجمه، بازنویسی، پیشنهاد عنوان، چکیده و نتیجه گیری)، ویرایش و تصحیح (تقویت واژگان، بررسی گرامر و املا، بررسی ارجاعات و...) و انتشار دانشگاهی (پیدا کردن مجله مناسب، فرمت دادن به مقاله برمبنای شیوه نامه مجله و...) به کار می آید.
عضو هیات علمی ایرانداک با اشاره به اینکه این چت بات می تواند درگیر سرقت ادبی، داده سازی، دستکاری داده شود، اظهار داشت: البته این چالش ها ذاتی نیستند و می تواند با توسعه و بهبود این ابزار رفع گردد.
وی با اشاره به موضوع «سایه نویسی ماشینی» که یکی دیگر از مسائلی است که با بهره گیری از این ابزار می توان درگیر آن شد، اظهار داشت: موضوع سایه نویسی ماشین و این که آیا متنی که چت بات نوشته را ما به اسم خودمان منتشر نماییم، مسئله ای است که نیاز به بررسی بیشتر دارد.
به گفته شریف زاده؛ ناشران مجلات در مورد این مساله رویه هایی در پیش گرفتند ولی نگاهی وجود دارد که عنوان می کند نمی توانیم چت جی پی تی را به عنوان مولف بدانیم.
وی با اشاره به انتشار مقاله ای که نخستین بار چت جی پی تی را به عنوان مولف دوم خود درج کرد، اظهار داشت: چند روز پس از انتشار این مقاله، ناشر چت جی پی تی را از فهرست مولف های آن حذف نمود و توضیح داد که هم اکنون چت بات ها نمی توانند معیارهای مولف بودن ما را کسب کنند. چونکه مولف یک مقاله بودن نیاز به مسئولیت نویسندگی دارد و ما نمی توانیم این مسئولیت را به چت بات دهیم.
عضو هیات علمی ایرانداک درباره ی معیارهایی که در مفهوم تالیف وجود دارد، توضیح داد: در سفارش نامه ونکوور یا کنوانسیون کمیته بین المللی سردبیران مجلات پزشکی ۴ مولفه و معیار برای یک مولف درنظر گرفته است: «مشارکت اساسی در مفهوم سازی یا طراحی پژوهش؛ یا به دست آوردن، تحلیل یا تفسیر داده های پژوهش»، «نگارش کار یا بازنگری انتقادی محتوای فکری مهم»، «تایید نهایی نسخه قابل انتشار» و «پذیرش مسئولیت درستی پژوهش انجام شده در تمام اجزا و جوانب آن». بر این اساس مولف کسی است که هر چهار شرط را داشته باشد.
وی افزود: چون چت جی پی تی کارهایی مثل مولف های انسانی انجام می دهد، سه شرط اول را می تواند پوشش دهد ولی در مورد مسئولیت سوال وجود دارد.
شریف زاده با اشاره به اینکه معنای عمیق تر مسئولیت، مسئولیت اخلاقی است، اظهار داشت: برای پذیرفتن مسئولیت نخستین شرط این است که عاملیت اخلاقی داشته باشد یعنی قابلیت انجام کنش های اخلاقاً مهم، تعبیه ارزش های اخلاقی در آن و قرارگرفتن در یک پروسه یادگیری اخلاقی پیوسته را داشته باشد. دومین شرط نیز مسئولیت اخلاقی است یعنی قابلیت سرزنش و ستایش اخلاقی را داشته باشد.
عضو هیات علمی ایرانداک اظهار داشت: در مخالفت با نسبت دادن مسئولیت اخلاقی به چت جی پی تی دو استدلال وجود دارد. یک استدلال مبتنی بر «اتاق چینی» است. یعنی این ابزار فاقد ذهن است و معنا، آگاهی را درک نمی کند و حس و حال را درک نمی نماید. می تواند از واژه ها و جملات استفاده نماید ولی بطورمثال حس و حال شعر خیام و گل سرخ را درک نمی کند؛ بدین سبب نمی توان به آن مسئولیت اخلاقی داد.
وی افزود: دومین استدلال مربوط به (ناسازگاری) است؛ اینکه چت جی پی تی یک موجود «متعین» است و توسط الگوریتم برنامه نویسی شده است؛ بدین سبب جبر بر آن حاکم است؛ در صورتیکه مسئولیت اخلاقی نیازمند داشتن اراده آزاد است.
شریف زاده در جواب این دو استدلال اظهار داشت: من نمی خواهم پاسخ محکمی به این دو استدلال بدهم ولی برای این دو استدلال، دو پاسخ وجود دارد. در جواب استدلال نخست یا اتاق چینی که عنوان می شود که این چت بات به ساخت معنا وارد نمی شود؛ پیش فرض این استدلال «ماشین ها نمی توانند فکر کنند» را مورد سوال قرار می دهد. یک سوال این است که آیا عدم فهم معنایی، می تواند مستلزم عدم مسئولیت اخلاقی باشد؟
وی افزود: بعنوان مثال اگر فردی معنای یک متن را نفهمد، می تواند مسئولیت اخلاقی در مقابل آن نداشته باشد؟ انگار جواب این سوال منفی است. بطورمثال یک استاد اخلاق به من گفته از یک واژه که به زبان دیگری است و من آن زبان را نمی دانم استفاده نکنم؛ ولی با توجه به این که مدلول آنرا نمی دانم ولی از آن استفاده می کنم. آیا من مسئولیت اخلاقی نداشتم؟
وی در جواب استدلال دوم (ناسازگاری) اظهار داشت: بطورمثال اگر من مجبور به کشتن فردی شوم، چون گزینه دیگری نداشتم؛ پس مسئولیت اخلاقی کشتن فرد از من سلب می شود؟ اینطور نیست.
عضو هیات علمی ایرانداک در آخر اظهار داشت: بنظر می رسد دست کم از نظر نظری مانع محکمی بر سر راه اینکه عامل غیر انسانی را مولف بشناسیم وجود ندارد.


منبع:

1403/08/14
09:21:38
5.0/5
215
تگهای خبر: ابزار , دانش , فناوری , هوش مصنوعی
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۲
madigital.ir - حقوق مادی و معنوی سایت ما دیجیتال محفوظ است

ما دیجیتال

اخبار دیجیتال و فناوری اطلاعات