در سالهای اخیر، پیشرفتهای سریع در زمینه هوش مصنوعی مولد (Generative AI) ابزارها و امکانات جدیدی برای نویسندگان، پژوهشگران و ناشران فراهم آورده است. این فناوریها میتوانند متن، تصویر، کد و محتوای چندرسانهای تولید کنند و در فرایند نگارش، بازبینی و آمادهسازی مقالهها نقش مؤثری ایفا کنند. همزمان با این فرصتها، نگرانیها و مسائل اخلاقی، حقوقی و کیفیتی نیز بروز کردهاند که به ویژه برای ناشران معتبر علمی اهمیت حیاتی دارد. یکی از راهکارهای کلیدی برای حفظ شفافیت، اعتماد و استانداردهای اخلاقی، افشای استفاده از هوش مصنوعی مولد در فرایند تهیه و نگارش مقاله است. در این مطلب جامع، راهنمایی گامبهگام و توصیههای عملی برای تدوین سیاست افشای استفاده از هوش مصنوعی مولد برای ناشران علمی ارائه میشود.
راهنمای افشای استفاده از هوش مصنوعی مولد به ناشران معتبر در زمنیه چاپ مقاله
بخش ۱ — چرا افشا ضروری است؟
- شفافیت و اعتماد: خوانندگان، داوران و نهادهای اعتبارسنج نیاز دارند بدانند چه ابزارهایی در تولید محتوای علمی به کار رفتهاند تا قضاوت صحیحتری درباره کیفیت و اصالت کار داشته باشند.
- مسائل اخلاقی و مسئولیتپذیری: استفاده از سیستمهای مولد ممکن است خطا، ابداعات نامناسب یا تولید اطلاعات نادرست (hallucination) را به همراه داشته باشد؛ اطلاعرسانی باعث میشود نویسندگان مسئولیتپذیری بیشتری نشان دهند.
- تطابق با سیاستهای انتشارات: بسیاری از ژورنالها و نهادها (مانند COPE یا ناشران بزرگ) راهنماییهایی درباره هوش مصنوعی منتشر کردهاند؛ پیروی و افشا به همسویی با استانداردهای بینالمللی کمک میکند.
- حقوق مالکیت معنوی و استناد: ابزارهای مولد ممکن است از مجموعههای دادهای استفاده کنند که دارای محدودیتهای حقوقیاند؛ افشا به بررسی مسائل حق تکثیر و منبعگیری کمک میکند.
بخش ۲ — دامنه و تعریفها برای تدوین سیاست افشا، ابتدا باید تعریف روشن و دامنه مشخصی تعیین شود:
- هوش مصنوعی مولد: سیستمها یا سرویسهایی که به تولید خودکار یا نیمهخودکار محتوا (متن، تصویر، نمودار، کد، جداول و غیره) میپردازند، از جمله مدلهای زبان بزرگ (LLMs) مانند ChatGPT، ابزارهای تولید تصویر (مثلاً DALL·E، Midjourney) و سیستمهای تولید داده یا نمودار.
- «استفاده اخلاقی» در برابر «استفاده محوری»: استفادههایی که به عنوان کمک نگارشی، ترجمه، بازنویسی سبک یا بررسی دستور زبان به کار میروند، با استفادههایی که بخشهای قابل توجهی از تحلیل یا نتیجهگیری را تولید میکنند، متفاوتاند و باید با سطوح افشای متفاوت برخورد شود.
- «افشا» به چه معناست: اعلام علنی در مقاله (متن اصلی، بخش متا، صفحه تقدیر یا تأییدیه)، درج در فرم ارسال، یا گزارش در فرآیند داوری.
بخش ۳ — اصول کلیدی برای سیاست افشا
شفافیت روشن و صریح: هرگونه استفاده از ابزارهای مولد باید گزارش شود، شامل نام ابزار، نسخه (در صورت امکان)، تاریخ استفاده و شرح مختصر چگونگی استفاده (مثلاً برای بازنویسی پیشنویس، تولید ایدههای اولیه، تولید تصویر شماتیك، یا بررسی گرامر).
تفکیک نقشها: مشخص شود که آیا ابزار تنها برای بهبود بیان و زبان به کار رفته یا در تولید محتوای علمی، تحلیل دادهها، طراحی روششناسی یا تولید نتایج نقش داشته است.
مسئولیت انسانی: تأکید بر اینکه نویسندگان مسئول نهایی محتوای مقالهاند و باید هرگونه خروجی مولد را بررسی، تصحیح و اعتبارسنجی کنند.
انکار مالکیت انسانی برای خروجیهای تولیدی: در صورتی که متن یا تصویر تولید شده توسط هوش مصنوعی در مقاله استفاده شده، نویسنده باید تأکید کند که مالکیت فکری و مسئولیت نهایی با نویسندگان است و اینکه ماشینها نمیتوانند بهعنوان مؤلف رسمی ذکر شوند.
جلوگیری از جعل یا سرقت ادبی: نویسندگان موظفاند خروجیهای تولید شده توسط AI را از نظر اصالت و مطابقت با مراجع بررسی کنند و هرگونه محتوا از منابع دیگر را بهدرستی ارجاع دهند.
محرمانگی و دادههای حساس: استفاده از ابزارهای مولد مبتنی بر سرویسهای ابری ممکن است دادههای حساس یا قابل شناسایی را در معرض اشتراک با ارائهدهنده سرویس قرار دهد؛ سیاست باید محدودیتها و هشدارهای مربوط به دادههای حساس را تعیین کند.
بخش ۴ — قالب و استانداردهای افشا برای نویسندگان ناشران میتوانند قالبهای استانداردی تهیه کنند تا نویسندگان بهسادگی و یکنواخت اطلاعات لازم را اعلام کنند. نمونه فیلدها:
- آیا از هوش مصنوعی مولد استفاده شده است؟ (بله/خیر)
- نام ابزار(ها) و نسخه (در صورت شناخت): مثلاً ChatGPT 4.1، Bard، LLaMA، DALL·E 3
- هدف استفاده: (مثلاً بازبینی زبان، تولید چکیده اولیه، تولید شکل شماتیک، تحلیل دادههای مقدماتی)
- میزان مشارکت: (مثلاً اصلاح نگارش تنها؛ تولید بخش قابل توجهی—شمار درصد تقریبی یا توصیف کیفی)
- تضمین صحت و بازبینی: توضیح دهید چگونه نویسندگان محتوای مولد را بررسی و تأیید کردهاند.
- مسائل حقوقی/محرمانگی: آیا دادههای حساس یا ناشناس نشدهای به ابزار داده شدهاند؟
- یادداشت اخلاقی: تأیید اینکه ابزار بهعنوان نویسنده ذکر نشده و نویسندگان مسئول نهاییاند.
نمونه متن کوتاه برای درج در مقاله (فارسی): «در تهیه این مقاله از ابزار هوش مصنوعی مولد [نام ابزار، نسخه] برای [هدف] استفاده شده است. تمام خروجیهای تولید شده توسط این ابزار توسط نویسندگان بررسی، اصلاح و صحتسنجی شده و نویسندگان مسئول محتوای نهایی میباشند.»
بخش ۵ — اصول فنی و عملی برای اجرای سیاست
- فرمهای اجباری در فرآیند ارسال: هنگام ارسال مقاله، نویسندگان باید یک سؤال اجباری در فرم آنلاین پر کنند که نشان دهد آیا از AI استفاده شده یا خیر و در صورت بله، فیلدهای تکمیلی پر شوند.
- راهنمایی و نمونهها: فراهم کردن مثالهای مشخص از مواردی که باید افشا شوند (مثلاً استفاده از AI برای تولید جدولهای داده یا تحلیل آماری مقدماتی) و مواردی که نیازی به افشا ندارند (مثلاً اصلاح ساده خطاهای تایپی با ابزارهای رایج مثل تصحیح املایی محلی—اما این تفکیک باید با احتیاط انجام شود).
- بررسی داوری: داوران باید در جریان باشند و دستورالعمل دریافت کنند که چگونه با مقالاتی که شامل خروجی AI هستند برخورد کنند؛ داوران نیز باید به مواردی مانند احتمال خطای دادهای یا منابع نامشخص توجه کنند.
- آموزش سردبیران و کارکنان: تیم سردبیری باید آموزش ببیند تا موارد استفاده از AI را شناسایی و مدیریت کند و در تصمیمگیریهای اخلاقی و حقوقی پشتیبانی نماید.
- ابزارهای تشخیص و اعتبارسنجی: در صورت لزوم و با آگاهی از محدودیتها، ناشر میتواند از ابزارهای تشخیص محتوای تولیدی توسط AI استفاده کند، اما نباید تنها بر تشخیص ماشینی تکیه کند؛ خروجیهای تشخیص باید توسط تحلیل انسانی تأیید شوند.
بخش ۶ — دستهبندی سطوح افشا (پیشنهادی) سطح 0 — بدون استفاده یا استفاده نامحسوس: تنها اصلاحات نگارشی جزئی و اصلاح املا؛ افشای اختیاری. سطح 1 — کمک نگارشی قابل توجه: بازنویسی بخشهایی از متن برای شفافیت یا ساختاردهی؛ افشا در بخش متادیتا یا توضیحات. سطح 2 — مشارکت در تولید محتوای علمی: تولید پاراگرافهایی از متن علمی، خلاصهسازی نتایج یا تفسیرهای اولیه؛ افشای واضح در متن مقاله و فرم ارسال. سطح 3 — مشارکت در تحلیل یا نتایج: استفاده از AI در تحلیل دادهها، تولید نتایج عددی یا مدلهای تحلیلی؛ افشای کامل، همراه با توضیح روش اعتبارسنجی و دسترسی به کد/دادهها.
بخش ۷ — الزامات حقوقی و مالکیت معنوی
- نویسندگان باید از شرایط خدمات ابزارهای مولد مطلع باشند؛ برخی سرویسها ممکن است ادعاهایی درباره حقوق مادی یا استفاده از خروجی داشته باشند.
- اگر ابزار از محتوای دارنده کپیرایت برای آموزش استفاده کرده و خروجی شامل عناصر محافظتشده باشد، نویسنده مسئول اطمینان از نبودن نقض حق تکثیر است.
- سیاست ناشر باید راهنمایی کند که آیا خروجی تولید شده توسط AI میتواند به عنوان بخشی از دادههای ضمیمه منتشر شود و آیا نیاز به اعلام مجوزهای خاص وجود دارد.
بخش ۸ — نمونههای عملی و موارد موردی
- مثال 1: نویسندهای از ChatGPT برای بازنویسی پاراگرافهای مقدمه استفاده کرده — افشا در بخش «اعتراف استفاده از ابزار» با ذکر ابزار و اینکه متن نهایی توسط نویسنده ویرایش شده است.
- مثال 2: محققانی از مدل مولد برای ساخت نمودارهای شماتیک استفاده کردهاند — در توضیحات شکل، نام ابزار و نحوه حصول داده باید ذکر شود.
- مثال 3: پژوهشگرانی از AI برای پیشتحلیل دادهها بهره بردهاند و سپس تحلیل اصلی را دستی انجام دادهاند — افشا در روششناسی همراه با شرح نحوه بررسی کیفیت خروجی AI.
بخش ۹ — نحوه برخورد با نقض سیاست
- مراحل مشخص برای برخورد با عدم افشا: از مرحله تذکر و درخواست اصلاح گرفته تا بازپسگیری مقاله در موارد جدی یا تکرار تخلفات.
- رویکرد مبتنی بر آموزش در مقابل تنبیه: در بسیاری از موارد، اولین برخورد میتواند شامل آموزش و اصلاح سیاستی باشد؛ موارد عمدی یا تکراری ممکن است پیگرد شدیدتری داشته باشند.
- ثبت و مستندسازی: همه موارد مشکوک یا نقضها باید بهصورت مستند ثبت شده و بررسی شوند تا شفافیت و انطباق حفظ شود.
بخش ۱۰ — ارتباط با خوانندگان و شفافسازی عمومی
- درج بیانیهای کوتاه در هر مقاله که از AI استفاده شده (در صورت وجود) کمک میکند تا خوانندگان آگاه شوند.
- صفحه اختصاصی سیاست AI در سایت ناشر که راهنماییها، پرسشهای متداول و نمونههای افشا را ارائه میدهد.
- اطلاعرسانی عمومی درباره اینکه چرا و چگونه ناشر افشا را الزامی کرده است تا اعتماد جامعه علمی حفظ شود.
نتیجهگیری و توصیههای نهایی
- شفافیت، مسئولیتپذیری و بررسی انسانی باید اصول راهنمای افشا باشند. افشا نباید بهعنوان مانعی برای نوآوری دیده شود، بلکه ابزاری برای ارتقاء کیفیت علمی و حفظ اعتماد است.
- ناشران باید سیاستهای روشن، قابل اجرا و قابل فهم ایجاد کنند که شامل قالبهای ساده برای نویسندگان، آموزش برای سردبیران و داوران و فرایندهای مشخص برای بررسی و برخورد با تخلفات باشد.
- با تکوین سریع فناوری، سیاستها باید منعطف باشند و بهطور دورهای بازبینی شوند تا با تحولات فنی، حقوقی و اخلاقی همگام بمانند.
چکلیست عملی برای ناشران (خلاصه)
- تعریف دقیق «هوش مصنوعی مولد» و دامنه سیاست
- فرم اجباری در ارسال مقاله برای اعلام استفاده از AI
- قالب استاندارد افشا (نام ابزار، هدف، میزان مشارکت، تایید صحت)
- آموزش سردبیران و داوران
- دستورالعمل برای دادههای حساس و مالکیت معنوی
- مکانیزم بررسی و برخورد با نقضها
- انتشار بیانیه و صفحه راهنما برای خوانندگان
پیوست — نمونه متنهای پیشنهادی (قابل اقتباس)
- متن کوتاه برای درج در مقاله: «در تهیه این مقاله از ابزار هوش مصنوعی مولد [نام ابزار] برای [هدف] استفاده شده است. تمامی خروجیهای تولید شده توسط این ابزار توسط نویسندگان بازبینی و تصحیح شدهاند و نویسندگان مسئول محتوای نهایی میباشند.»
- متن برای فرم ارسال: «آیا در تهیه این مقاله از ابزارهای هوش مصنوعی مولد استفاده شده است؟ (بله/خیر). در صورت بله، لطفاً نام ابزار(ها)، هدف استفاده و شرح مختصری از نقش آنها را وارد کنید.»
پیشنهاد برای گام بعدی
ناشران میتوانند با تشکیل گروهی متشکل از اعضای هیئت تحریریه، متخصصان اخلاق پژوهشی و نمایندگانی از جامعه نویسندگان، پیشنویس سیاست را تهیه و پس از نظرسنجی از ذینفعان آن را نهایی کنند. بازبینی دورهای (مثلاً هر ۶ ماه تا یک سال) برای بهروزرسانی سیاست با توجه به تحولات فناوری ضروری است.