سلام، لطفا برای من یک مدرک دانشگاهی بساز (قسمت دوم)

این نوشته، ترجمه‌ای از مقاله نوشته‌شده توسط جیمز د. والش در مجله نیویورک تحت عنوان «همه دارند کالج را با تقلب می‌گذرانند» است.

به نظر می‌رسد بسیاری از اساتید و معلمان اکنون از این اتفاق ناامید هستند. در پاییز، سم ویلیامز دستیار آموزشی یک کلاس فشرده نویسندگی در مورد موسیقی و تغییرات اجتماعی در دانشگاه آیووا بود که رسماً به دانشجویان اجازه استفاده از هوش مصنوعی را نمی‌داد. خواندن اولین سری تکالیف و نمره دادن به آنها برای ویلیامز لذت‌بخش بود: یک مقاله شخصی که از دانشجویان می‌خواست در مورد سلیقه موسیقی خود بنویسند. سپس، در دومین تکلیف، مقاله‌ای در مورد دوره محبوبیت سبک جز در شهر نیواورلئان (که از سال ۱۸۹۰ تا ۱۹۲۰ ادامه داشت)، سبک نوشتاری بسیاری از دانشجویانش به طرز چشمگیری تغییر کرد. بدتر از آن، خطاهای مضحکی درباره حقایق وجود داشتند؛ چندین مقاله شامل پاراگراف‌های کامل در مورد الویس پریسلی (متولد ۱۹۳۵) بودند. ویلیامز گفت: «من به معنای واقعی کلمه به کلاسم گفتم: از هوش مصنوعی استفاده نکنید. اما اگر می‌خواهید تقلب کنید، باید به روشی هوشمندانه تقلب کنید. نمی‌توانید دقیقاً همان چیزی را که هوش مصنوعی بیرون می‌دهد، کپی کنید.» ویلیامز می‌دانست که بیشتر دانشجویان این کلاس آموزش عمومی، قرار نیست نویسنده شوند؛ اما فکر می‌کرد که رسیدن از یک صفحه خالی به چند صفحه نیمه‌منسجم، بیش از هر چیز، درسی برای تلاش است. از این زاویه دید، بیشتر دانشجویان او کاملاً شکست خوردند. ویلیامز گفت: «اونا از هوش مصنوعی استفاده می‌کنن چون یک راه حل ساده‌ست و راهی آسون برای اوناست تا برای نوشتن انشا وقت نذارن و من این رو درک می‌کنم؛ چون وقتی بچه‌مدرسه‌ای بودم، از نوشتن انشا متنفر بودم. اما حالا، هر وقت با کمی مشکل مواجه می‌شن، به جای اینکه با اون بجنگن و ازش عبور کنن، به چیزی پناه می‌برن که کار رو براشون بسیار آسون‌تر می‌کنه.»

 تا ماه نوامبر، ویلیامز تخمین زد که حداقل نیمی از دانشجویانش از هوش مصنوعی برای نوشتن مقالات خود استفاده می‌کنند. تلاش برای صحت‌سنجی نیز بی‌معنی بود. ویلیامز هیچ اعتقادی به آشکارسازهای هوش مصنوعی نداشت و استادی که در کلاس تدریس می‌کرد، به او دستور داد که مقالات تکی، حتی مقالاتی که به وضوح توسط هوش مصنوعی اصلاح شده بودند را رد نکند. ویلیامز گفت: «هر بار که این موضوع را با استاد مطرح می‌کردم، این حس را داشتم که او قدرت ChatGPT را دست کم می‌گیرد و موضع دانشکده نیز این بود که «این یک سراشیبی لغزنده است و ما واقعاً نمی‌توانیم ثابت کنیم که آنها از هوش مصنوعی استفاده می‌کنند.» به گفته ویلیامز، «به من گفته شد که بر اساس چیزی که مقاله در صورت تلاش واقعی برای نوشتن یک مقاله به دست میاره، نمره بدم. بنابراین، من به افراد بر اساس توانایی‌شون در استفاده از ChatGPT نمره می‌دادم.»

سیاست «تلاش واقعی برای نوشتن یک مقاله» مقیاس نمره‌دهی ویلیامز را خراب کرد. اگر او به مقاله‌ای قوی که واضحاً با هوش مصنوعی نوشته شده بود، نمره B می‌داد، به مقاله‌ای که توسط کسی نوشته شده بود که واقعاً مقاله خود را نوشته بود اما به قول خودش «یک مقاله تقریباً بی‌سوادانه» را ارائه داده بود، چه نمره‌ای باید می‌داد؟ این سردرگمی برای ویلیامز در مورد آموزش، منجر شد تا در پایان ترم، او به قدری سرخورده شود که تصمیم بگیرد تا تحصیلات تکمیلی را به کلی رها کند: «ما در نسلی جدید، در زمانی جدید هستیم و من فکر نمی‌کنم این کاری باشه که بخوام انجام بدم.»

تصور عمومی ایده‌آل از دانشگاه به عنوان مکانی برای رشد فکری و جایی که دانشجویان با ایده‌های عمیق و ژرف درگیر می‌شوند، مدت‌ها قبل از ChatGPT از بین رفته بود. ترکیب هزینه‌های بالا و اقتصاد «برنده همه چیز را می‌برد»، باعث شده که دانشگاه به عنوان یک معامله یا وسیله‌ای برای رسیدن به هدف به نظر برسد. (در یک نظرسنجی اخیر، شرکت حسابداری Deloitte دریافت که تنها کمی بیش از نیمی از فارغ التحصیلان دانشگاه، معتقدند که تحصیلاتشان ارزش ده‌ها هزار دلار هزینه سالانه را دارد، در مقایسه با فارغ التحصیلان مدارس فنی و حرفه‌ای که ۷۶ درصد آنها چنین اعتقادی داشتند.) به نوعی، سرعت و سهولتی که هوش مصنوعی ثابت کرد قادر به انجام کارهای سطح دانشگاه با آن است، به سادگی فساد را در هسته آموزش آشکار کرد.

نموداری از تغییرات تعداد توکن‌های پردازش‌شده در مدل‌های سرویس ChatGPT؛ تعداد توکن‌های پردازش‌شده پس از پایان سال تحصیلی با کاهش شدیدی مواجه بوده است.

مسئله فقط دانشجویان نیستند؛ چندین پلتفرم و سرویس، اکنون ابزارهایی را برای ارائه بازخورد تولید شده توسط هوش مصنوعی در مورد مقالات دانشجویان ارائه می‌دهند. این امر، احتمال این که هوش مصنوعی اکنون در حال ارزیابی مقالات تولید شده توسط هوش مصنوعی باشد را افزایش می‌دهد و کل تمرین و تکلیف‌های دانشگاهی را به مکالمه‌ای بین دو ربات (یا حتی فقط یک ربات) کاهش می‌دهد.

سال‌ها طول خواهد کشید تا بتوانیم به طور کامل بفهمیم که همه اینها، چه تاثیری بر مغز دانش‌آموزان و دانشجویان می‌گذارد. برخی تحقیقات اولیه، نشان می‌دهد که وقتی دانش‌آموزان وظایف فکر کردنی خود را به چت‌بات‌ها واگذار می‌کنند، ظرفیت آنها برای حافظه، حل مسئله و خلاقیت ممکن است آسیب ببیند. مطالعات متعددی که در سال گذشته منتشر شده‌اند، استفاده از هوش مصنوعی را با زوال مهارت‌های تفکر انتقادی مرتبط دانسته‌اند. یکی از آنها نشان داده است که این اثر، در شرکت‌کنندگان جوان‌تر پژوهش برجسته‌تر است. در ماه فوریه، مایکروسافت و دانشگاه کارنگی ملون، مطالعه‌ای را منتشر کردند که نشان می‌داد اعتماد افراد به هوش مصنوعی مولد، با کاهش تلاش برای تفکر انتقادی مرتبط است. به نظر می‌رسد اثر نهایی، اگر کاملاً شبیه به انیمیشن دیستوپیایی Wall-E نباشد، حداقل یک سازماندهی دوباره و قابل توجه از تلاش‌ها و توانایی‌های افراد است. همه اینها نگران‌کننده‌تر خواهد بود؛ اگر این واقعیت را اضافه کنید که هوش مصنوعی، ناقص است؛ یعنی ممکن است خروجی آن به چیزی متکی باشد که در واقعیت نادرست است یا حتی کاملاً از خودش ساخته است. با تأثیر مخربی که رسانه‌ها و شبکه‌های اجتماعی بر توانایی نسل زد در تشخیص واقعیت از روایات ساخته ذهن داشته‌اند، مشکل ممکن است بسیار بزرگتر از هوش مصنوعی مولد باشد. «اثر فلین» به افزایش مداوم نمرات بهره هوشی از نسلی به نسل دیگر اشاره دارد که سابقه آن به دهه ۱۹۳۰ میلادی برمی‌گردد. شیب این افزایش از حدود سال ۲۰۰۶ شروع به کند شدن و در برخی موارد، معکوس شدن نموده است. رابرت استرنبرگ، استاد روانشناسی دانشگاه کرنل، در مصاحبه‌ای به رسانه گاردین گفت: «بزرگترین نگرانی در این دوران هوش مصنوعی مولد، این نیست که ممکنه خلاقیت یا هوش انسان رو به خطر بیندازد، بلکه اینه که در حال حاضر این اتفاق افتاده.»

اورین استارن، استاد دانشگاه دوک، در نوشته اخیر خود با عنوان «نبرد شکست‌خورده من علیه تقلب هوش مصنوعی» با استناد به نقل قولی که اغلب به دبلیو. اچ. آدن – شاعر انگلیسی – نسبت داده می‌شود، نوشت: «زبان مادر تفکر است، نه خدمتکار آن». اما فقط نوشتن نیست که تفکر انتقادی را توسعه می‌دهد. مایکل جانسون، معاون آموزشی دانشگاه A&M تگزاس، گفت: «یادگیری ریاضی بر توانایی شما برای تحلیل سیستماتیک یک فرایند در حل مسئله تاثیر داره. حتی اگر قرار نیست در حرفه خود از جبر یا مثلثات یا حساب دیفرانسیل و انتگرال استفاده کنید، از این مهارت‌ها برای زمانی که چیزها منطقی به نظر نمی‌رسند، استفاده خواهید کرد.» نوجوانان از سختی‌های ساختار یافته، چه ریاضیات جبری باشد و چه کارهای خانه، سود می‌برند. آنها از طریق این وظایف، عزت نفس و اخلاق کاری را در خود ایجاد می‌کنند. به همین دلیل است که جاناتان هایدت، روانشناس اجتماعی، بر اهمیت یادگیری کودکان برای انجام کارهای سخت استدلال کرده است، چیزی که فناوری، اجتناب از آن را بی‌نهایت آسان‌تر می‌کند. سم آلتمن، مدیرعامل OpenAI، نگرانی‌ها در مورد استفاده از هوش مصنوعی در دانشگاه را کوته‌بینانه دانسته، ChatGPT را صرفاً «ماشین‌حسابی برای کلمات» توصیف کرده و گفته است که «تعریف تقلب باید تکامل یابد». آلتمن، دانشجوی انصرافی استنفورد، سال گذشته گفت: «نوشتن مقاله به روش قدیمی دیگه معنی خاصی نداره». اما او در سخنرانی خود در کمیته نظارت مجلس سنا بر فناوری در سال ۲۰۲۳، به تردیدهای خود اعتراف کرد: «من نگرانم که با بهتر و بهتر شدن مدل‌ها، کاربرها فرق بین یک مقاله با زبان انسان و زبان ربات رو کمتر و کمتر تشخیص بدن.» OpenAI از بازاریابی برای دانشجویان دانشگاه نیز شرمی نداشته است. این شرکت اخیراً حساب ChatGPT پلاس را که معمولاً اشتراک ۲۰ دلاری در ماه دارد، در طول امتحانات نهایی برای دانشجویان رایگان کرده است. (OpenAI ادعا می‌کند که باید به دانشجویان و معلمان، نحوه استفاده مسئولانه از آن آموزش داده شود و بر محصول ChatGPT Edu که به مؤسسات دانشگاهی می‌فروشد تأکید دارد.)

 

لی از مصاحبه‌های کاری مربوط به هک فاصله گرفته است. در ماه آوریل، او و شانموگام سرویس Cluely را راه‌اندازی کردند که صفحه کامپیوتر کاربر را اسکن کرده و به صدای آن گوش می‌دهد تا بدون نیاز به راهنمایی و پرامپت، بازخورد هوش مصنوعی و پاسخ به سوالات را بطور برخط و لحظه‌ای ارائه دهد. در اساسنامه این شرکت آمده است: «ما Cluely را ساختیم تا دیگر هرگز مجبور نباشید تنها فکر کنید». این بار، لی با یک تبلیغ تلویزیونی ۱۴۰ هزار دلاری که در آن یک مهندس نرم‌افزار جوان (با بازی لی)، از Cluely نصب‌شده روی عینک خود برای دروغ گفتن در قرار اول با یک زن بزرگ‌تر استفاده می‌کند. وقتی قرار به سمت خراب شدن می‌رود، Cluely به لی پیشنهاد می‌دهد که «در مورد کارهای هنری آن خانم صحبت کن» و اسکریپتی را برای گفتن او فراهم می‌کند. لی از روی عینکش می‌خواند: «من پروفایل هنری شما و نقاشی با لاله‌ها را دیدم. شما زیباترین دختر تاریخ هستید». 

قبل از راه‌اندازی Cluely، لی و شانموگام ۵.۳ میلیون دلار از سرمایه‌گذاران جمع‌آوری کردند که به آنها اجازه داد دو برنامه‌نویس – دوستانی که لی در کالج منطقه‌ای با آنها آشنا شده بود (هیچ مصاحبه شغلی یا معماهای LeetCode لازم نبود) – را استخدام کرده و به سانفرانسیسکو نقل مکان کنند. چند روز پس از راه‌اندازی Cluely، وقتی با هم صحبت کردیم، لی در شرف گرفتن کلید ساختمان فضای کار جدیدش بود. او Cluely را روی رایانه خود اجرا می‌کرد. در حالی که Cluely هنوز نمی‌تواند پاسخ‌های بدون آمادگی قبلی را از طریق عینک افراد ارائه دهد، ایده نهایی این است که در آینده نزدیک، روی یک دستگاه پوشیدنی اجرا شده و همه چیز را در محیط شما ببیند، بشنود و واکنش نشان دهد. لی با قاطعیت گفت: «سپس، در نهایت، همه‌چیز فقط در مغز شماست». در حال حاضر، لی امیدوار است که مردم از Cluely برای ادامه محاصره آموزش توسط هوش مصنوعی استفاده کنند. او گفت: «ما قصد داریم امتحانات LSAT دیجیتال؛ GRE دیجیتال؛ تمام تکالیف دانشگاهی، آزمون‌ها و امتحانات را هدف قرار دهیم. این به شما این امکان را می‌دهد که تقریباً در همه‌چیز تقلب کنید».

سلام، لطفا برای من یک مدرک دانشگاهی بساز (قسمت اول)

این نوشته، ترجمه‌ای از مقاله نوشته‌شده توسط جیمز د. والش در مجله نیویورک تحت عنوان «همه دارند کالج را با تقلب می‌گذرانند» است.

در پاییز سال گذشته، «چانگین روی لی» موفق شد به دانشگاه کلمبیای آمریکا راه پیدا کرده و سپس – طبق اعتراف خودش – تقریباً برای انجام تمام تکالیف خود از هوش مصنوعی استفاده کند. بعنوان یک دانشجوی علوم کامپیوتر، او وابستگی نسبتا زیادی به هوش مصنوعی برای کلاس‌های برنامه‌نویسی خود داشت: «فقط هرچی بود رو با یه پرامپت به ChatGPT می‌دادم و هرچی اون بهم می‌داد رو تحویل می‌دادم.» طبق تخمین لی، هوش مصنوعی هشتاد درصد از تمام تکالیف و گزارش‌هایی که او تحویل می‌داد را انجام داده بود: «توی آخرین مرحله، خودم هم یه چیزایی اضافه می‌کردم. در حقیقت بیست درصد از انسان بودنم رو بهش اضافه می‌کردم».

ورود لی به دانشگاه کار آسانی نبود؛ در سال آخر دبیرستان، او برای ورود به دانشگاه هاروارد اقدام کرد و به گفته خودش، از این دانشگاه پذیرش نیز گرفت؛ اما این پذیرش، به دلیل تعلیق او از دبیرستان (به دلیل خروج غیرمجاز از مکان کمپ کردن در یک اردوی تفریحی) پس گرفته شد. در سال بعد، او برای ورود به ۲۶ دانشگاه مختلف اقدام کرد که موفق به ورود به هیچ‌کدام از‌ آنها نشد. در نتیجه، او سال بعدی خود را در کالج‌های منطقه‌ای گذراند و در سال دوم تحصیل خود، برای ورود به دانشگاه کلمبیا اقدام نموده و موفق نیز شد. پس از ورود به این دانشگاه، او نگرانی چندانی بابت معدل خود نداشت: «عموما تکالیف دانشگاهی، خیلی چیزای بدردبخور و مرتبطی نیستن. بیشترشون رو میشه با هوش مصنوعی دور زد؛ و منم هیچ تمایلی به انجام دادنشون نداشتم». در شرایطی که باقی دانشجویان تلاش می‌کردند تا خود را با برنامه درسی سخت و سطح بالای این دانشگاه وفق دهند، لی از هوش مصنوعی استفاده می‌کرد تا با حداقل تلاش، مسیر خود را از بین آنها پیدا کند. وقتی از او پرسیدم که چرا او خود را به این اندازه از دردسر انداخت تا بتواند وارد چنین دانشگاه رده‌بالایی شود و بعد از آن، بخواهد این‌چنین آن را جدی نگیرد، گفت: «چون این بهترین جا برای ملاقات با همسر آینده‌ات و کسی که قراره باهاش یه شرکت تأسیس کنی به حساب میاد».

تا پایان اولین ترم، لی یکی از این دو مورد را انجام داده بود؛ او با «نیل شانموگام»، دانشجوی سال اولی مهندسی آشنا شد و این دو به کمک یکدیگر، ایده‌های مختلفی برای چند استارت‌آپ را توسعه دادند: یک اپلیکیشن دوست‌یابی برای دانشجویان دانشگاه کلمبیا، یک اپلیکیشن فروشگاهی برای فروشندگان مشروبات الکلی، و یک اپلیکیشن مخصوص جزوه‌برداری؛ هیچ‌کدام از این ایده‌ها، به نتیجه نرسیدند. اینجا بود که یک ایده جدید به ذهن لی رسید: به عنوان یک برنامه‌نویس، او نزدیک به ۶۰۰ ساعت اعصاب‌خردکن را در سایت Leetcode، پلتفرمی برای آزمودن برنامه‌نویسان توسط شرکت‌ها در آزمون‌های استخدام و جذب کارآموز، گذرانده بود. لی، مانند خیلی دیگر از برنامه‌نویسان جوان، سوال‌ها و تسک‌های این پلتفرم را طاقت‌فرسا و بیهوده برای کار اصلی‌ای که برنامه‌نویسان قرار است انجام دهند می‌دانست. اصلا همه این کارها برای چه بود؟ چه می‌شد اگر برنامه‌ای وجود داشت که حین آزمون، هوش مصنوعی را از آزمون‌گیرنده در مرورگر اینترنت آنها پنهان می‌کرد و آنها می‌توانستند به صورت دزدکی، سوالات خود را حین آزمون به هوش مصنوعی بدهند؟

چند ماه بعد، لی و شانموگام ابزاری مخصوص همین کار توسعه دادند. سایت آنها که Interview Coder نام داشت، بنری در صفحه اول خود داشت که چنین خوانده می‌شد: «لعنت به لیت‌کد». لی ویدیویی از خودش در یوتیوب منتشر کرد که از این ابزار، برای تقلب در آزمون استخدامی شرکت آمازون استفاده کرده بود (که اتفاقا از آنها پیشنهاد کار نیز گرفت؛ اما آن را رد کرد). یک ماه بعد، لی به اداره «یکپارچگی آموزشی دانشگاه کلمبیا» احضار شد. معاونت دانشگاه، او را وارد یک دوره عفو مشروط انضباطی کرد؛ چرا که به عقیده کمیته دانشگاه، لی «تبلیغ به استفاده از ابزار تقلب» کرده بود و «به دانشجویان نیز امکان استفاده از این ابزار را داده بود».

به عقیده لی، این که دانشگاه کلمبیا، دانشگاهی که با شرکت سازنده ChatGPT، یعنی OpenAI، قرارداد رسمی همکاری داشته و در عین حال، او را به دلیل نوآوری با هوش مصنوعی مجازات کند، مسخره و مضحک بود. هرچند، با وجود این که سیاست این دانشگاه در رابطه با هوش مصنوعی، مانند خیلی از دانشگاه‌های دیگر، ممنوع کردن دانشجویان از استفاده از هوش مصنوعی (مگر با اجازه صریح استاد بود)، به گفته لی او دانشجویی را نمی‌شناخت که برای تقلب از هوش مصنوعی استفاده نکند. به عقیده لی، این پدیده لزوما چیز بدی نبود: «به نظرم ما فقط چند سال یا حتی چند ماه با دنیایی که استفاده از ChatGPT توش تقلب محسوب نشه فاصله داریم».

در ژانویه ۲۰۲۳، تنها دو ماه پس از انتشار ChatGPT توسط OpenAI، یک نظرسنجی از هزار دانشجو نشان داد که نزدیک به نود درصد آنها از این چت‌بات برای کمک گرفتن در تکالیف خود استفاده کرده بودند. در اولین سال انتشار، آمار بازدید ماهانه ChatGPT تا شروع تعطیلات تابستانی، رشد ثابت ماهانه‌ای به خود دید. استادها و دستیاران آموزشی آنها به طور فزاینده‌ای با مقالات و گزارش‌هایی روبرو می‌شدند که پر از جمله‌بندی‌های بی‌احساس و ربات‌گونه – اگرچه از لحاظ گرامری بی‌نقص – بودند. دو سال و نیم بعد، دانشجویان دانشگاه‌های برتر، دانشگاه‌های دولتی، موسسه‌ها و … در تمامی مراحل آموزش خود به هوش مصنوعی تکیه دارند. چت‌بات‌های هوش مصنوعی مولد، حین کلاس‌ها برای دانشجویان جزوه می‌نویسند، آزمون‌ها و تکالیف آنها را ارزیابی می‌کنند، رمان‌ها و کتاب‌های مختلف را خلاصه می‌کنند و برای مقالات و گزارش‌های آنها، ایده‌پردازی و بارش فکری نیز انجام می‌دهند. دانشجویان STEM (رشته‌های مربوط به علوم پایه، فناوری، مهندسی و پزشکی) از هوش مصنوعی برای خودکار نمودن پژوهش‌ها و تحلیل‌های خود و همچنین، گذر ساده از بین برنامه‌نویسی‌های پیچیده و وظایف مربوط به دیباگ کردن کد استفاده می‌کنند.

تقلب کردن در درس‌ها، مفهوم و اتفاق تازه‌ای نیست؛ اما در حال حاضر، به قول خود دانشجوها، «سقفی که قبلا برای تقلب وجود داشت، منفجر شده». چه کسی می‌تواند در برابر ابزاری که انجام تمام تکالیف را بدون عواقب خاصی آسان‌تر می‌نماید، مقاومت کند؟ تروی جالیمور – شاعر، فیلسوف و استاد اخلاقیات در دانشگاه ایالتی کالیفرنیا – پس از گذراندن دو سال گذشته به تصحیح کردن تکالیف ساخته‌شده توسط هوش مصنوعی، چنین اذعان داشت: «تعداد بسیاری از دانشجویان مدرک دانشگاهی خود را دریافت می‌کنند و وارد بازار کار می‌شوند؛ در حالی که اساسا بی‌سواد هستند. هم به معنای واقعی کلمه، و هم به معنای نداشتن هیچ درکی از گذشته و فرهنگ خود یا دیگران». این وضعیت، شاید زودتر از چیزی که فکر می‌کردیم فرا رسیده باشد؛ چرا که در لحظه نگارش این متن، قریب به نیمی از دانشجویان، تجربه گذراندن دانشگاه بدون دسترسی به هوش مصنوعی مولد را نداشته‌اند. «هوش مصنوعی داره فرایند یادگیری رو مدار کوتاه می‌کنه؛ و به سرعت هم داره این کار رو انجام میده.»

قبل از انتشار ChatGPT در نوامبر ۲۰۲۲، آمار تقلب به بیشترین حد خود رسیده بود. در آن زمان، بسیاری از دانشجویان از دبیرستان به‌صورت مجازی و از راه دور فارغ التحصیل شده بودند؛ در شرایطی که کسی بر آنها نظارت نداشت و آنها نیز از ابزارهایی مانند Chegg و Course Hero نیز نهایت استفاده را می‌بردند. این شرکت‌ها خود را به عنوان منابع آنلاین و نامحدود برای کتاب‌ها و محتویات آموزشی تبلیغ می‌کردند؛ در حالی که اصولا برای تقلب به کار می‌رفتند. با پرداخت ۱۵.۹۵ دلار در ماه، Chegg این قول را به کاربران می‌داد که در عرض ۳۰ دقیقه و با مشارکت بیش از ۱۵۰ هزار نفر، بتواند به تکالیف و سوالاتی که کاربران در آن آپلود می‌کنند، پاسخ دهد. با انتشار ChatGPT، حالا دانشجویان به یک ابزار سریع‌تر و تواناتر دسترسی داشتند.

معاونین و مسئولان مؤسسات آموزشی نیز قادر به انجام کاری نبودند. عملا هیچ راهی برای ممنوع کردن استفاده از ChatGPT به طور کامل وجود نداشت. در نتیجه، آنها تصمیم را بر عهده استادها و معلم‌ها گذاشتند. برخی از دانشگاه‌ها، آن را پذیرفته و حتی با توسعه‌دهندگان مختلف همکاری کردند تا چت‌بات‌های مخصوص خود را توسعه دهند؛ اما در نهایت، قانون‌گذاری برای آن کار راحتی نبود. تا چه سطحی می‌شد استفاده از هوش مصنوعی را مجاز دانست؟ آیا می‌توان دانشجویان را مجاز نمود که با صحبت با هوش مصنوعی، بتوانند ایده بگیرند؛ اما به شرطی که از آن نخواهند تا تک‌تک جملات تکالیف را نیز بنویسد؟

این روزها، استادها عموما استفاده از هوش مصنوعی را برای درس‌های خود مجاز اعلام می‌کنند؛ به شرطی که دانشجویان با آن مانند منابع دیگر برخورد کرده و در صورت استفاده از آن، هوش مصنوعی را به عنوان منبع خود معرفی نمایند؛ یا حتی پا را فراتر گذاشته و دانشجویان را مجبور می‌کردند که سابقه صحبت خود با هوش مصنوعی در رابطه با تکلیف مربوطه را نیز ارائه دهند. دانشجویان گاهی ممکن بود بطور ناخواسته مرتکب تخلف شوند؛ چرا که حتی در صورت عدم درخواست مستقیم از هوش مصنوعی برای انجام تکالیف، ممکن بود آنها از طریق صحبت‌های رد و بدل شده، ناخودآگاه تقلب کرده و ندانند که درخواست از هوش مصنوعی برای تمیز کردن یک پیش‌نویس یا پیدا کردن یک منبع معتبر برای رفرنس دادن نیز تقلب محسوب می‌شود. بیشتر اساتید مربوط به نویسندگی، معتقد هستند که استفاده دانشجویان از هوش مصنوعی به طرز وحشتناکی قابل تشخیص و «تابلو» است. شاید بعضی وقت‌ها بتوان یک الگو و روان بودن خاص در زبان مقاله یا نحوه جمله‌بندی‌ها پیدا کرد؛ اما بیشتر وقت‌ها، نوشته‌های آنها شلخته و مکانیکی است. کلمه‌های خاص و کم‌استفاده، چند بار در متن‌ها دیده می‌شوند. استدلال‌ها و ضد استدلال‌ها، فقط به نحوی خاص که پیام اصلی متن را تکرار کنند ارائه می‌شوند. حتی بعضی وقت‌ها این استفاده واضح‌تر هم می‌شود؛ چرا که بعضی متن‌های تحویل‌داده‌شده با این جمله شروع می‌شود: «من به عنوان یک هوش مصنوعی، برنامه‌نویسی شده‌ام تا…»

با این حال، اگرچه اساتید ممکن است فکر کنند که در تشخیص نوشته‌های تولید شده توسط هوش مصنوعی مهارت دارند، مطالعات نشان داده‌ که در واقعیت اینطور نیست. یکی از این مطالعات که در ژوئن ۲۰۲۴ منتشر شد، از پروفایل‌های جعلی دانشجویان برای قرار دادن تمام کارهای تولید شده توسط هوش مصنوعی در برگه‌های نمره‌دهی اساتید در یک دانشگاه بریتانیایی استفاده کرد. اساتید نتوانسته بودند ساخته شدن ۹۷ درصد آنها توسط هوش مصنوعی را تشخیص دهند. از زمان راه‌اندازی ChatGPT تا الان، ظرفیت هوش مصنوعی برای نوشتن مقاله‌های شبیه به انسان، بهتر و بهتر شده است. به همین دلیل است که دانشگاه‌ها از آشکارسازهای هوش مصنوعی مانند Turnitin استفاده می‌کنند که از هوش مصنوعی، برای تشخیص الگوهای مختلف در متن تولید شده توسط هوش مصنوعی استفاده می‌کند. آشکارسازها، پس از ارزیابی یک بلوک متن، درصد امتیازی را ارائه می‌دهند که نشان دهنده احتمال تولید آن مقاله توسط هوش مصنوعی است. دانشجویان در مورد اساتیدی صحبت می‌کنند که شایعه شده است آستانه‌های خاصی (مثلا ۲۵ درصد) دارند که بالاتر از آن، یک مقاله ممکن است به عنوان نقض قانون اخلاق و تخلف علامت‌گذاری شود؛ اما حتی یک استاد – در مدارس دولتی بزرگ یا مدارس خصوصی کوچک، نخبه یا … – پیدا نشده است که به اجرای چنین سیاستی اعتراف کرده باشد. به نظر می‌رسید بیشتر آنها تسلیم این باور شده بودند که آشکارسازهای هوش مصنوعی، در حقیقت کار نمی‌کنند. علاوه بر این، آشکارسازهای مختلف هوش مصنوعی، نرخ موفقیت بسیار متفاوتی نیز دارند و در مجموع، در این رابطه داده‌های متناقض زیادی وجود دارد.

البته راه‌های آسان زیادی برای فریب دادن اساتید و تشخیص‌دهنده‌ها وجود دارد. دانشجویان پس از استفاده از هوش مصنوعی برای نوشتن یک مقاله، همیشه می‌توانند آن را با صدای خودشان بازنویسی کرده یا به آن غلط‌های املایی اضافه کنند؛ یا حتی می‌توانند از هوش مصنوعی بخواهند که این کار را برایشان انجام دهد. یکی از دانشجویان در تیک‌تاک گفته بود که پرامپت مورد علاقه‌اش این است: «آن را به عنوان یک دانشجوی سال اولی بنویس که کمی کودن است». دانشجویان همچنین می‌توانند پاراگراف‌های تولید شده توسط هوش مصنوعی را از طریق سایر هوش‌های مصنوعی که برخی از آنها «اصالت» خروجی‌های خود را تبلیغ می‌کنند، دستکاری کرده یا مقاله‌های گذشته خود را آپلود کنند تا هوش مصنوعی را با صدای خود آموزش دهند. اریک، دانشجوی سال دوم دانشگاه استنفورد، گفت: «آنها واقعا در دستکاری سیستم‌ها خوب هستند. شما یک پرامپت را در ChatGPT قرار می‌دهید، سپس خروجی را در یک سیستم هوش مصنوعی دیگر قرار می‌دهید، سپس آن را در یک سیستم هوش مصنوعی دیگر قرار می‌دهید. در آن مرحله، اگر خروجی نهایی را در یک سیستم تشخیص هوش مصنوعی قرار دهید، درصد تشخیص هوش مصنوعی استفاده‌شده هر بار کاهش می‌یابد». بیشتر اساتید به این نتیجه رسیده‌اند که متوقف کردن سوءاستفاده‌ گسترده از هوش مصنوعی، به چیزی بیش از نظارت صرف بر موارد فردی نیاز دارد و احتمالا به معنای بازنگری اساسی در سیستم آموزشی برای در نظر گرفتن دانش‌آموزان به صورت جامع‌تر خواهد بود.