این نوشته، ترجمهای از مقاله نوشتهشده توسط جیمز د. والش در مجله نیویورک تحت عنوان «همه دارند کالج را با تقلب میگذرانند» است.
در پاییز سال گذشته، «چانگین روی لی» موفق شد به دانشگاه کلمبیای آمریکا راه پیدا کرده و سپس – طبق اعتراف خودش – تقریباً برای انجام تمام تکالیف خود از هوش مصنوعی استفاده کند. بعنوان یک دانشجوی علوم کامپیوتر، او وابستگی نسبتا زیادی به هوش مصنوعی برای کلاسهای برنامهنویسی خود داشت: «فقط هرچی بود رو با یه پرامپت به ChatGPT میدادم و هرچی اون بهم میداد رو تحویل میدادم.» طبق تخمین لی، هوش مصنوعی هشتاد درصد از تمام تکالیف و گزارشهایی که او تحویل میداد را انجام داده بود: «توی آخرین مرحله، خودم هم یه چیزایی اضافه میکردم. در حقیقت بیست درصد از انسان بودنم رو بهش اضافه میکردم».
ورود لی به دانشگاه کار آسانی نبود؛ در سال آخر دبیرستان، او برای ورود به دانشگاه هاروارد اقدام کرد و به گفته خودش، از این دانشگاه پذیرش نیز گرفت؛ اما این پذیرش، به دلیل تعلیق او از دبیرستان (به دلیل خروج غیرمجاز از مکان کمپ کردن در یک اردوی تفریحی) پس گرفته شد. در سال بعد، او برای ورود به ۲۶ دانشگاه مختلف اقدام کرد که موفق به ورود به هیچکدام از آنها نشد. در نتیجه، او سال بعدی خود را در کالجهای منطقهای گذراند و در سال دوم تحصیل خود، برای ورود به دانشگاه کلمبیا اقدام نموده و موفق نیز شد. پس از ورود به این دانشگاه، او نگرانی چندانی بابت معدل خود نداشت: «عموما تکالیف دانشگاهی، خیلی چیزای بدردبخور و مرتبطی نیستن. بیشترشون رو میشه با هوش مصنوعی دور زد؛ و منم هیچ تمایلی به انجام دادنشون نداشتم». در شرایطی که باقی دانشجویان تلاش میکردند تا خود را با برنامه درسی سخت و سطح بالای این دانشگاه وفق دهند، لی از هوش مصنوعی استفاده میکرد تا با حداقل تلاش، مسیر خود را از بین آنها پیدا کند. وقتی از او پرسیدم که چرا او خود را به این اندازه از دردسر انداخت تا بتواند وارد چنین دانشگاه ردهبالایی شود و بعد از آن، بخواهد اینچنین آن را جدی نگیرد، گفت: «چون این بهترین جا برای ملاقات با همسر آیندهات و کسی که قراره باهاش یه شرکت تأسیس کنی به حساب میاد».
تا پایان اولین ترم، لی یکی از این دو مورد را انجام داده بود؛ او با «نیل شانموگام»، دانشجوی سال اولی مهندسی آشنا شد و این دو به کمک یکدیگر، ایدههای مختلفی برای چند استارتآپ را توسعه دادند: یک اپلیکیشن دوستیابی برای دانشجویان دانشگاه کلمبیا، یک اپلیکیشن فروشگاهی برای فروشندگان مشروبات الکلی، و یک اپلیکیشن مخصوص جزوهبرداری؛ هیچکدام از این ایدهها، به نتیجه نرسیدند. اینجا بود که یک ایده جدید به ذهن لی رسید: به عنوان یک برنامهنویس، او نزدیک به ۶۰۰ ساعت اعصابخردکن را در سایت Leetcode، پلتفرمی برای آزمودن برنامهنویسان توسط شرکتها در آزمونهای استخدام و جذب کارآموز، گذرانده بود. لی، مانند خیلی دیگر از برنامهنویسان جوان، سوالها و تسکهای این پلتفرم را طاقتفرسا و بیهوده برای کار اصلیای که برنامهنویسان قرار است انجام دهند میدانست. اصلا همه این کارها برای چه بود؟ چه میشد اگر برنامهای وجود داشت که حین آزمون، هوش مصنوعی را از آزمونگیرنده در مرورگر اینترنت آنها پنهان میکرد و آنها میتوانستند به صورت دزدکی، سوالات خود را حین آزمون به هوش مصنوعی بدهند؟
چند ماه بعد، لی و شانموگام ابزاری مخصوص همین کار توسعه دادند. سایت آنها که Interview Coder نام داشت، بنری در صفحه اول خود داشت که چنین خوانده میشد: «لعنت به لیتکد». لی ویدیویی از خودش در یوتیوب منتشر کرد که از این ابزار، برای تقلب در آزمون استخدامی شرکت آمازون استفاده کرده بود (که اتفاقا از آنها پیشنهاد کار نیز گرفت؛ اما آن را رد کرد). یک ماه بعد، لی به اداره «یکپارچگی آموزشی دانشگاه کلمبیا» احضار شد. معاونت دانشگاه، او را وارد یک دوره عفو مشروط انضباطی کرد؛ چرا که به عقیده کمیته دانشگاه، لی «تبلیغ به استفاده از ابزار تقلب» کرده بود و «به دانشجویان نیز امکان استفاده از این ابزار را داده بود».
به عقیده لی، این که دانشگاه کلمبیا، دانشگاهی که با شرکت سازنده ChatGPT، یعنی OpenAI، قرارداد رسمی همکاری داشته و در عین حال، او را به دلیل نوآوری با هوش مصنوعی مجازات کند، مسخره و مضحک بود. هرچند، با وجود این که سیاست این دانشگاه در رابطه با هوش مصنوعی، مانند خیلی از دانشگاههای دیگر، ممنوع کردن دانشجویان از استفاده از هوش مصنوعی (مگر با اجازه صریح استاد بود)، به گفته لی او دانشجویی را نمیشناخت که برای تقلب از هوش مصنوعی استفاده نکند. به عقیده لی، این پدیده لزوما چیز بدی نبود: «به نظرم ما فقط چند سال یا حتی چند ماه با دنیایی که استفاده از ChatGPT توش تقلب محسوب نشه فاصله داریم».
در ژانویه ۲۰۲۳، تنها دو ماه پس از انتشار ChatGPT توسط OpenAI، یک نظرسنجی از هزار دانشجو نشان داد که نزدیک به نود درصد آنها از این چتبات برای کمک گرفتن در تکالیف خود استفاده کرده بودند. در اولین سال انتشار، آمار بازدید ماهانه ChatGPT تا شروع تعطیلات تابستانی، رشد ثابت ماهانهای به خود دید. استادها و دستیاران آموزشی آنها به طور فزایندهای با مقالات و گزارشهایی روبرو میشدند که پر از جملهبندیهای بیاحساس و رباتگونه – اگرچه از لحاظ گرامری بینقص – بودند. دو سال و نیم بعد، دانشجویان دانشگاههای برتر، دانشگاههای دولتی، موسسهها و … در تمامی مراحل آموزش خود به هوش مصنوعی تکیه دارند. چتباتهای هوش مصنوعی مولد، حین کلاسها برای دانشجویان جزوه مینویسند، آزمونها و تکالیف آنها را ارزیابی میکنند، رمانها و کتابهای مختلف را خلاصه میکنند و برای مقالات و گزارشهای آنها، ایدهپردازی و بارش فکری نیز انجام میدهند. دانشجویان STEM (رشتههای مربوط به علوم پایه، فناوری، مهندسی و پزشکی) از هوش مصنوعی برای خودکار نمودن پژوهشها و تحلیلهای خود و همچنین، گذر ساده از بین برنامهنویسیهای پیچیده و وظایف مربوط به دیباگ کردن کد استفاده میکنند.
تقلب کردن در درسها، مفهوم و اتفاق تازهای نیست؛ اما در حال حاضر، به قول خود دانشجوها، «سقفی که قبلا برای تقلب وجود داشت، منفجر شده». چه کسی میتواند در برابر ابزاری که انجام تمام تکالیف را بدون عواقب خاصی آسانتر مینماید، مقاومت کند؟ تروی جالیمور – شاعر، فیلسوف و استاد اخلاقیات در دانشگاه ایالتی کالیفرنیا – پس از گذراندن دو سال گذشته به تصحیح کردن تکالیف ساختهشده توسط هوش مصنوعی، چنین اذعان داشت: «تعداد بسیاری از دانشجویان مدرک دانشگاهی خود را دریافت میکنند و وارد بازار کار میشوند؛ در حالی که اساسا بیسواد هستند. هم به معنای واقعی کلمه، و هم به معنای نداشتن هیچ درکی از گذشته و فرهنگ خود یا دیگران». این وضعیت، شاید زودتر از چیزی که فکر میکردیم فرا رسیده باشد؛ چرا که در لحظه نگارش این متن، قریب به نیمی از دانشجویان، تجربه گذراندن دانشگاه بدون دسترسی به هوش مصنوعی مولد را نداشتهاند. «هوش مصنوعی داره فرایند یادگیری رو مدار کوتاه میکنه؛ و به سرعت هم داره این کار رو انجام میده.»
قبل از انتشار ChatGPT در نوامبر ۲۰۲۲، آمار تقلب به بیشترین حد خود رسیده بود. در آن زمان، بسیاری از دانشجویان از دبیرستان بهصورت مجازی و از راه دور فارغ التحصیل شده بودند؛ در شرایطی که کسی بر آنها نظارت نداشت و آنها نیز از ابزارهایی مانند Chegg و Course Hero نیز نهایت استفاده را میبردند. این شرکتها خود را به عنوان منابع آنلاین و نامحدود برای کتابها و محتویات آموزشی تبلیغ میکردند؛ در حالی که اصولا برای تقلب به کار میرفتند. با پرداخت ۱۵.۹۵ دلار در ماه، Chegg این قول را به کاربران میداد که در عرض ۳۰ دقیقه و با مشارکت بیش از ۱۵۰ هزار نفر، بتواند به تکالیف و سوالاتی که کاربران در آن آپلود میکنند، پاسخ دهد. با انتشار ChatGPT، حالا دانشجویان به یک ابزار سریعتر و تواناتر دسترسی داشتند.
معاونین و مسئولان مؤسسات آموزشی نیز قادر به انجام کاری نبودند. عملا هیچ راهی برای ممنوع کردن استفاده از ChatGPT به طور کامل وجود نداشت. در نتیجه، آنها تصمیم را بر عهده استادها و معلمها گذاشتند. برخی از دانشگاهها، آن را پذیرفته و حتی با توسعهدهندگان مختلف همکاری کردند تا چتباتهای مخصوص خود را توسعه دهند؛ اما در نهایت، قانونگذاری برای آن کار راحتی نبود. تا چه سطحی میشد استفاده از هوش مصنوعی را مجاز دانست؟ آیا میتوان دانشجویان را مجاز نمود که با صحبت با هوش مصنوعی، بتوانند ایده بگیرند؛ اما به شرطی که از آن نخواهند تا تکتک جملات تکالیف را نیز بنویسد؟
این روزها، استادها عموما استفاده از هوش مصنوعی را برای درسهای خود مجاز اعلام میکنند؛ به شرطی که دانشجویان با آن مانند منابع دیگر برخورد کرده و در صورت استفاده از آن، هوش مصنوعی را به عنوان منبع خود معرفی نمایند؛ یا حتی پا را فراتر گذاشته و دانشجویان را مجبور میکردند که سابقه صحبت خود با هوش مصنوعی در رابطه با تکلیف مربوطه را نیز ارائه دهند. دانشجویان گاهی ممکن بود بطور ناخواسته مرتکب تخلف شوند؛ چرا که حتی در صورت عدم درخواست مستقیم از هوش مصنوعی برای انجام تکالیف، ممکن بود آنها از طریق صحبتهای رد و بدل شده، ناخودآگاه تقلب کرده و ندانند که درخواست از هوش مصنوعی برای تمیز کردن یک پیشنویس یا پیدا کردن یک منبع معتبر برای رفرنس دادن نیز تقلب محسوب میشود. بیشتر اساتید مربوط به نویسندگی، معتقد هستند که استفاده دانشجویان از هوش مصنوعی به طرز وحشتناکی قابل تشخیص و «تابلو» است. شاید بعضی وقتها بتوان یک الگو و روان بودن خاص در زبان مقاله یا نحوه جملهبندیها پیدا کرد؛ اما بیشتر وقتها، نوشتههای آنها شلخته و مکانیکی است. کلمههای خاص و کماستفاده، چند بار در متنها دیده میشوند. استدلالها و ضد استدلالها، فقط به نحوی خاص که پیام اصلی متن را تکرار کنند ارائه میشوند. حتی بعضی وقتها این استفاده واضحتر هم میشود؛ چرا که بعضی متنهای تحویلدادهشده با این جمله شروع میشود: «من به عنوان یک هوش مصنوعی، برنامهنویسی شدهام تا…»
با این حال، اگرچه اساتید ممکن است فکر کنند که در تشخیص نوشتههای تولید شده توسط هوش مصنوعی مهارت دارند، مطالعات نشان داده که در واقعیت اینطور نیست. یکی از این مطالعات که در ژوئن ۲۰۲۴ منتشر شد، از پروفایلهای جعلی دانشجویان برای قرار دادن تمام کارهای تولید شده توسط هوش مصنوعی در برگههای نمرهدهی اساتید در یک دانشگاه بریتانیایی استفاده کرد. اساتید نتوانسته بودند ساخته شدن ۹۷ درصد آنها توسط هوش مصنوعی را تشخیص دهند. از زمان راهاندازی ChatGPT تا الان، ظرفیت هوش مصنوعی برای نوشتن مقالههای شبیه به انسان، بهتر و بهتر شده است. به همین دلیل است که دانشگاهها از آشکارسازهای هوش مصنوعی مانند Turnitin استفاده میکنند که از هوش مصنوعی، برای تشخیص الگوهای مختلف در متن تولید شده توسط هوش مصنوعی استفاده میکند. آشکارسازها، پس از ارزیابی یک بلوک متن، درصد امتیازی را ارائه میدهند که نشان دهنده احتمال تولید آن مقاله توسط هوش مصنوعی است. دانشجویان در مورد اساتیدی صحبت میکنند که شایعه شده است آستانههای خاصی (مثلا ۲۵ درصد) دارند که بالاتر از آن، یک مقاله ممکن است به عنوان نقض قانون اخلاق و تخلف علامتگذاری شود؛ اما حتی یک استاد – در مدارس دولتی بزرگ یا مدارس خصوصی کوچک، نخبه یا … – پیدا نشده است که به اجرای چنین سیاستی اعتراف کرده باشد. به نظر میرسید بیشتر آنها تسلیم این باور شده بودند که آشکارسازهای هوش مصنوعی، در حقیقت کار نمیکنند. علاوه بر این، آشکارسازهای مختلف هوش مصنوعی، نرخ موفقیت بسیار متفاوتی نیز دارند و در مجموع، در این رابطه دادههای متناقض زیادی وجود دارد.
البته راههای آسان زیادی برای فریب دادن اساتید و تشخیصدهندهها وجود دارد. دانشجویان پس از استفاده از هوش مصنوعی برای نوشتن یک مقاله، همیشه میتوانند آن را با صدای خودشان بازنویسی کرده یا به آن غلطهای املایی اضافه کنند؛ یا حتی میتوانند از هوش مصنوعی بخواهند که این کار را برایشان انجام دهد. یکی از دانشجویان در تیکتاک گفته بود که پرامپت مورد علاقهاش این است: «آن را به عنوان یک دانشجوی سال اولی بنویس که کمی کودن است». دانشجویان همچنین میتوانند پاراگرافهای تولید شده توسط هوش مصنوعی را از طریق سایر هوشهای مصنوعی که برخی از آنها «اصالت» خروجیهای خود را تبلیغ میکنند، دستکاری کرده یا مقالههای گذشته خود را آپلود کنند تا هوش مصنوعی را با صدای خود آموزش دهند. اریک، دانشجوی سال دوم دانشگاه استنفورد، گفت: «آنها واقعا در دستکاری سیستمها خوب هستند. شما یک پرامپت را در ChatGPT قرار میدهید، سپس خروجی را در یک سیستم هوش مصنوعی دیگر قرار میدهید، سپس آن را در یک سیستم هوش مصنوعی دیگر قرار میدهید. در آن مرحله، اگر خروجی نهایی را در یک سیستم تشخیص هوش مصنوعی قرار دهید، درصد تشخیص هوش مصنوعی استفادهشده هر بار کاهش مییابد». بیشتر اساتید به این نتیجه رسیدهاند که متوقف کردن سوءاستفاده گسترده از هوش مصنوعی، به چیزی بیش از نظارت صرف بر موارد فردی نیاز دارد و احتمالا به معنای بازنگری اساسی در سیستم آموزشی برای در نظر گرفتن دانشآموزان به صورت جامعتر خواهد بود.