سلام، لطفا برای من یک مدرک دانشگاهی بساز (قسمت اول)

این نوشته، ترجمه‌ای از مقاله نوشته‌شده توسط جیمز د. والش در مجله نیویورک تحت عنوان «همه دارند کالج را با تقلب می‌گذرانند» است.

در پاییز سال گذشته، «چانگین روی لی» موفق شد به دانشگاه کلمبیای آمریکا راه پیدا کرده و سپس – طبق اعتراف خودش – تقریباً برای انجام تمام تکالیف خود از هوش مصنوعی استفاده کند. بعنوان یک دانشجوی علوم کامپیوتر، او وابستگی نسبتا زیادی به هوش مصنوعی برای کلاس‌های برنامه‌نویسی خود داشت: «فقط هرچی بود رو با یه پرامپت به ChatGPT می‌دادم و هرچی اون بهم می‌داد رو تحویل می‌دادم.» طبق تخمین لی، هوش مصنوعی هشتاد درصد از تمام تکالیف و گزارش‌هایی که او تحویل می‌داد را انجام داده بود: «توی آخرین مرحله، خودم هم یه چیزایی اضافه می‌کردم. در حقیقت بیست درصد از انسان بودنم رو بهش اضافه می‌کردم».

ورود لی به دانشگاه کار آسانی نبود؛ در سال آخر دبیرستان، او برای ورود به دانشگاه هاروارد اقدام کرد و به گفته خودش، از این دانشگاه پذیرش نیز گرفت؛ اما این پذیرش، به دلیل تعلیق او از دبیرستان (به دلیل خروج غیرمجاز از مکان کمپ کردن در یک اردوی تفریحی) پس گرفته شد. در سال بعد، او برای ورود به ۲۶ دانشگاه مختلف اقدام کرد که موفق به ورود به هیچ‌کدام از‌ آنها نشد. در نتیجه، او سال بعدی خود را در کالج‌های منطقه‌ای گذراند و در سال دوم تحصیل خود، برای ورود به دانشگاه کلمبیا اقدام نموده و موفق نیز شد. پس از ورود به این دانشگاه، او نگرانی چندانی بابت معدل خود نداشت: «عموما تکالیف دانشگاهی، خیلی چیزای بدردبخور و مرتبطی نیستن. بیشترشون رو میشه با هوش مصنوعی دور زد؛ و منم هیچ تمایلی به انجام دادنشون نداشتم». در شرایطی که باقی دانشجویان تلاش می‌کردند تا خود را با برنامه درسی سخت و سطح بالای این دانشگاه وفق دهند، لی از هوش مصنوعی استفاده می‌کرد تا با حداقل تلاش، مسیر خود را از بین آنها پیدا کند. وقتی از او پرسیدم که چرا او خود را به این اندازه از دردسر انداخت تا بتواند وارد چنین دانشگاه رده‌بالایی شود و بعد از آن، بخواهد این‌چنین آن را جدی نگیرد، گفت: «چون این بهترین جا برای ملاقات با همسر آینده‌ات و کسی که قراره باهاش یه شرکت تأسیس کنی به حساب میاد».

تا پایان اولین ترم، لی یکی از این دو مورد را انجام داده بود؛ او با «نیل شانموگام»، دانشجوی سال اولی مهندسی آشنا شد و این دو به کمک یکدیگر، ایده‌های مختلفی برای چند استارت‌آپ را توسعه دادند: یک اپلیکیشن دوست‌یابی برای دانشجویان دانشگاه کلمبیا، یک اپلیکیشن فروشگاهی برای فروشندگان مشروبات الکلی، و یک اپلیکیشن مخصوص جزوه‌برداری؛ هیچ‌کدام از این ایده‌ها، به نتیجه نرسیدند. اینجا بود که یک ایده جدید به ذهن لی رسید: به عنوان یک برنامه‌نویس، او نزدیک به ۶۰۰ ساعت اعصاب‌خردکن را در سایت Leetcode، پلتفرمی برای آزمودن برنامه‌نویسان توسط شرکت‌ها در آزمون‌های استخدام و جذب کارآموز، گذرانده بود. لی، مانند خیلی دیگر از برنامه‌نویسان جوان، سوال‌ها و تسک‌های این پلتفرم را طاقت‌فرسا و بیهوده برای کار اصلی‌ای که برنامه‌نویسان قرار است انجام دهند می‌دانست. اصلا همه این کارها برای چه بود؟ چه می‌شد اگر برنامه‌ای وجود داشت که حین آزمون، هوش مصنوعی را از آزمون‌گیرنده در مرورگر اینترنت آنها پنهان می‌کرد و آنها می‌توانستند به صورت دزدکی، سوالات خود را حین آزمون به هوش مصنوعی بدهند؟

چند ماه بعد، لی و شانموگام ابزاری مخصوص همین کار توسعه دادند. سایت آنها که Interview Coder نام داشت، بنری در صفحه اول خود داشت که چنین خوانده می‌شد: «لعنت به لیت‌کد». لی ویدیویی از خودش در یوتیوب منتشر کرد که از این ابزار، برای تقلب در آزمون استخدامی شرکت آمازون استفاده کرده بود (که اتفاقا از آنها پیشنهاد کار نیز گرفت؛ اما آن را رد کرد). یک ماه بعد، لی به اداره «یکپارچگی آموزشی دانشگاه کلمبیا» احضار شد. معاونت دانشگاه، او را وارد یک دوره عفو مشروط انضباطی کرد؛ چرا که به عقیده کمیته دانشگاه، لی «تبلیغ به استفاده از ابزار تقلب» کرده بود و «به دانشجویان نیز امکان استفاده از این ابزار را داده بود».

به عقیده لی، این که دانشگاه کلمبیا، دانشگاهی که با شرکت سازنده ChatGPT، یعنی OpenAI، قرارداد رسمی همکاری داشته و در عین حال، او را به دلیل نوآوری با هوش مصنوعی مجازات کند، مسخره و مضحک بود. هرچند، با وجود این که سیاست این دانشگاه در رابطه با هوش مصنوعی، مانند خیلی از دانشگاه‌های دیگر، ممنوع کردن دانشجویان از استفاده از هوش مصنوعی (مگر با اجازه صریح استاد بود)، به گفته لی او دانشجویی را نمی‌شناخت که برای تقلب از هوش مصنوعی استفاده نکند. به عقیده لی، این پدیده لزوما چیز بدی نبود: «به نظرم ما فقط چند سال یا حتی چند ماه با دنیایی که استفاده از ChatGPT توش تقلب محسوب نشه فاصله داریم».

در ژانویه ۲۰۲۳، تنها دو ماه پس از انتشار ChatGPT توسط OpenAI، یک نظرسنجی از هزار دانشجو نشان داد که نزدیک به نود درصد آنها از این چت‌بات برای کمک گرفتن در تکالیف خود استفاده کرده بودند. در اولین سال انتشار، آمار بازدید ماهانه ChatGPT تا شروع تعطیلات تابستانی، رشد ثابت ماهانه‌ای به خود دید. استادها و دستیاران آموزشی آنها به طور فزاینده‌ای با مقالات و گزارش‌هایی روبرو می‌شدند که پر از جمله‌بندی‌های بی‌احساس و ربات‌گونه – اگرچه از لحاظ گرامری بی‌نقص – بودند. دو سال و نیم بعد، دانشجویان دانشگاه‌های برتر، دانشگاه‌های دولتی، موسسه‌ها و … در تمامی مراحل آموزش خود به هوش مصنوعی تکیه دارند. چت‌بات‌های هوش مصنوعی مولد، حین کلاس‌ها برای دانشجویان جزوه می‌نویسند، آزمون‌ها و تکالیف آنها را ارزیابی می‌کنند، رمان‌ها و کتاب‌های مختلف را خلاصه می‌کنند و برای مقالات و گزارش‌های آنها، ایده‌پردازی و بارش فکری نیز انجام می‌دهند. دانشجویان STEM (رشته‌های مربوط به علوم پایه، فناوری، مهندسی و پزشکی) از هوش مصنوعی برای خودکار نمودن پژوهش‌ها و تحلیل‌های خود و همچنین، گذر ساده از بین برنامه‌نویسی‌های پیچیده و وظایف مربوط به دیباگ کردن کد استفاده می‌کنند.

تقلب کردن در درس‌ها، مفهوم و اتفاق تازه‌ای نیست؛ اما در حال حاضر، به قول خود دانشجوها، «سقفی که قبلا برای تقلب وجود داشت، منفجر شده». چه کسی می‌تواند در برابر ابزاری که انجام تمام تکالیف را بدون عواقب خاصی آسان‌تر می‌نماید، مقاومت کند؟ تروی جالیمور – شاعر، فیلسوف و استاد اخلاقیات در دانشگاه ایالتی کالیفرنیا – پس از گذراندن دو سال گذشته به تصحیح کردن تکالیف ساخته‌شده توسط هوش مصنوعی، چنین اذعان داشت: «تعداد بسیاری از دانشجویان مدرک دانشگاهی خود را دریافت می‌کنند و وارد بازار کار می‌شوند؛ در حالی که اساسا بی‌سواد هستند. هم به معنای واقعی کلمه، و هم به معنای نداشتن هیچ درکی از گذشته و فرهنگ خود یا دیگران». این وضعیت، شاید زودتر از چیزی که فکر می‌کردیم فرا رسیده باشد؛ چرا که در لحظه نگارش این متن، قریب به نیمی از دانشجویان، تجربه گذراندن دانشگاه بدون دسترسی به هوش مصنوعی مولد را نداشته‌اند. «هوش مصنوعی داره فرایند یادگیری رو مدار کوتاه می‌کنه؛ و به سرعت هم داره این کار رو انجام میده.»

قبل از انتشار ChatGPT در نوامبر ۲۰۲۲، آمار تقلب به بیشترین حد خود رسیده بود. در آن زمان، بسیاری از دانشجویان از دبیرستان به‌صورت مجازی و از راه دور فارغ التحصیل شده بودند؛ در شرایطی که کسی بر آنها نظارت نداشت و آنها نیز از ابزارهایی مانند Chegg و Course Hero نیز نهایت استفاده را می‌بردند. این شرکت‌ها خود را به عنوان منابع آنلاین و نامحدود برای کتاب‌ها و محتویات آموزشی تبلیغ می‌کردند؛ در حالی که اصولا برای تقلب به کار می‌رفتند. با پرداخت ۱۵.۹۵ دلار در ماه، Chegg این قول را به کاربران می‌داد که در عرض ۳۰ دقیقه و با مشارکت بیش از ۱۵۰ هزار نفر، بتواند به تکالیف و سوالاتی که کاربران در آن آپلود می‌کنند، پاسخ دهد. با انتشار ChatGPT، حالا دانشجویان به یک ابزار سریع‌تر و تواناتر دسترسی داشتند.

معاونین و مسئولان مؤسسات آموزشی نیز قادر به انجام کاری نبودند. عملا هیچ راهی برای ممنوع کردن استفاده از ChatGPT به طور کامل وجود نداشت. در نتیجه، آنها تصمیم را بر عهده استادها و معلم‌ها گذاشتند. برخی از دانشگاه‌ها، آن را پذیرفته و حتی با توسعه‌دهندگان مختلف همکاری کردند تا چت‌بات‌های مخصوص خود را توسعه دهند؛ اما در نهایت، قانون‌گذاری برای آن کار راحتی نبود. تا چه سطحی می‌شد استفاده از هوش مصنوعی را مجاز دانست؟ آیا می‌توان دانشجویان را مجاز نمود که با صحبت با هوش مصنوعی، بتوانند ایده بگیرند؛ اما به شرطی که از آن نخواهند تا تک‌تک جملات تکالیف را نیز بنویسد؟

این روزها، استادها عموما استفاده از هوش مصنوعی را برای درس‌های خود مجاز اعلام می‌کنند؛ به شرطی که دانشجویان با آن مانند منابع دیگر برخورد کرده و در صورت استفاده از آن، هوش مصنوعی را به عنوان منبع خود معرفی نمایند؛ یا حتی پا را فراتر گذاشته و دانشجویان را مجبور می‌کردند که سابقه صحبت خود با هوش مصنوعی در رابطه با تکلیف مربوطه را نیز ارائه دهند. دانشجویان گاهی ممکن بود بطور ناخواسته مرتکب تخلف شوند؛ چرا که حتی در صورت عدم درخواست مستقیم از هوش مصنوعی برای انجام تکالیف، ممکن بود آنها از طریق صحبت‌های رد و بدل شده، ناخودآگاه تقلب کرده و ندانند که درخواست از هوش مصنوعی برای تمیز کردن یک پیش‌نویس یا پیدا کردن یک منبع معتبر برای رفرنس دادن نیز تقلب محسوب می‌شود. بیشتر اساتید مربوط به نویسندگی، معتقد هستند که استفاده دانشجویان از هوش مصنوعی به طرز وحشتناکی قابل تشخیص و «تابلو» است. شاید بعضی وقت‌ها بتوان یک الگو و روان بودن خاص در زبان مقاله یا نحوه جمله‌بندی‌ها پیدا کرد؛ اما بیشتر وقت‌ها، نوشته‌های آنها شلخته و مکانیکی است. کلمه‌های خاص و کم‌استفاده، چند بار در متن‌ها دیده می‌شوند. استدلال‌ها و ضد استدلال‌ها، فقط به نحوی خاص که پیام اصلی متن را تکرار کنند ارائه می‌شوند. حتی بعضی وقت‌ها این استفاده واضح‌تر هم می‌شود؛ چرا که بعضی متن‌های تحویل‌داده‌شده با این جمله شروع می‌شود: «من به عنوان یک هوش مصنوعی، برنامه‌نویسی شده‌ام تا…»

با این حال، اگرچه اساتید ممکن است فکر کنند که در تشخیص نوشته‌های تولید شده توسط هوش مصنوعی مهارت دارند، مطالعات نشان داده‌ که در واقعیت اینطور نیست. یکی از این مطالعات که در ژوئن ۲۰۲۴ منتشر شد، از پروفایل‌های جعلی دانشجویان برای قرار دادن تمام کارهای تولید شده توسط هوش مصنوعی در برگه‌های نمره‌دهی اساتید در یک دانشگاه بریتانیایی استفاده کرد. اساتید نتوانسته بودند ساخته شدن ۹۷ درصد آنها توسط هوش مصنوعی را تشخیص دهند. از زمان راه‌اندازی ChatGPT تا الان، ظرفیت هوش مصنوعی برای نوشتن مقاله‌های شبیه به انسان، بهتر و بهتر شده است. به همین دلیل است که دانشگاه‌ها از آشکارسازهای هوش مصنوعی مانند Turnitin استفاده می‌کنند که از هوش مصنوعی، برای تشخیص الگوهای مختلف در متن تولید شده توسط هوش مصنوعی استفاده می‌کند. آشکارسازها، پس از ارزیابی یک بلوک متن، درصد امتیازی را ارائه می‌دهند که نشان دهنده احتمال تولید آن مقاله توسط هوش مصنوعی است. دانشجویان در مورد اساتیدی صحبت می‌کنند که شایعه شده است آستانه‌های خاصی (مثلا ۲۵ درصد) دارند که بالاتر از آن، یک مقاله ممکن است به عنوان نقض قانون اخلاق و تخلف علامت‌گذاری شود؛ اما حتی یک استاد – در مدارس دولتی بزرگ یا مدارس خصوصی کوچک، نخبه یا … – پیدا نشده است که به اجرای چنین سیاستی اعتراف کرده باشد. به نظر می‌رسید بیشتر آنها تسلیم این باور شده بودند که آشکارسازهای هوش مصنوعی، در حقیقت کار نمی‌کنند. علاوه بر این، آشکارسازهای مختلف هوش مصنوعی، نرخ موفقیت بسیار متفاوتی نیز دارند و در مجموع، در این رابطه داده‌های متناقض زیادی وجود دارد.

البته راه‌های آسان زیادی برای فریب دادن اساتید و تشخیص‌دهنده‌ها وجود دارد. دانشجویان پس از استفاده از هوش مصنوعی برای نوشتن یک مقاله، همیشه می‌توانند آن را با صدای خودشان بازنویسی کرده یا به آن غلط‌های املایی اضافه کنند؛ یا حتی می‌توانند از هوش مصنوعی بخواهند که این کار را برایشان انجام دهد. یکی از دانشجویان در تیک‌تاک گفته بود که پرامپت مورد علاقه‌اش این است: «آن را به عنوان یک دانشجوی سال اولی بنویس که کمی کودن است». دانشجویان همچنین می‌توانند پاراگراف‌های تولید شده توسط هوش مصنوعی را از طریق سایر هوش‌های مصنوعی که برخی از آنها «اصالت» خروجی‌های خود را تبلیغ می‌کنند، دستکاری کرده یا مقاله‌های گذشته خود را آپلود کنند تا هوش مصنوعی را با صدای خود آموزش دهند. اریک، دانشجوی سال دوم دانشگاه استنفورد، گفت: «آنها واقعا در دستکاری سیستم‌ها خوب هستند. شما یک پرامپت را در ChatGPT قرار می‌دهید، سپس خروجی را در یک سیستم هوش مصنوعی دیگر قرار می‌دهید، سپس آن را در یک سیستم هوش مصنوعی دیگر قرار می‌دهید. در آن مرحله، اگر خروجی نهایی را در یک سیستم تشخیص هوش مصنوعی قرار دهید، درصد تشخیص هوش مصنوعی استفاده‌شده هر بار کاهش می‌یابد». بیشتر اساتید به این نتیجه رسیده‌اند که متوقف کردن سوءاستفاده‌ گسترده از هوش مصنوعی، به چیزی بیش از نظارت صرف بر موارد فردی نیاز دارد و احتمالا به معنای بازنگری اساسی در سیستم آموزشی برای در نظر گرفتن دانش‌آموزان به صورت جامع‌تر خواهد بود.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *