შეფასების სისტემა ხელოვნური ინტელექტის ეპოქაში: სამართლიანობა, სანდოობა და უნივერსიტეტების ახალი სტანდარტები
ხელოვნური ინტელექტის სწრაფმა გავრცელებამ უნივერსიტეტებში ყველაზე მტკივნეული ზონა – შეფასება, წინა პლანზე წამოწია. წლების განმავლობაში აკადემიური კეთილსინდისიერების ზედამხედველობა პლაგიატზე,

ხელოვნური ინტელექტის სწრაფმა გავრცელებამ უნივერსიტეტებში ყველაზე მტკივნეული ზონა – შეფასება, წინა პლანზე წამოწია. წლების განმავლობაში აკადემიური კეთილსინდისიერების ზედამხედველობა პლაგიატზე, ციტირების წესებზე და სტანდარტულ გამოცდებზე იყო აგებული. ახლა კი აშკარაა: საბაზისო მეთოდები აღარ კმარა—განათლების სისტემას სჭირდება ის მოდელები, რომლებიც გამოავლენს არა მხოლოდ პასუხს, არამედ როგორ მივიდა სტუდენტი ამ პასუხამდე.
საქართველოში ჩატარებულმა საბაზისო კვლევამ ნათელი სურათი დახატა. ბიზნესისა და ტექნოლოგიების უნივერსიტეტის 2025 წლის ზაფხულის კვლევის ფარგლებში ლექტორების უმეტესობამ მიუთითა, რომ ყველაზე აქტიუალური გამოწვევა სწორედ შეფასების სანდოობაა, რადგან AI-ის გამოყენების პირობებში სტუდენტური ნაშრომების ორიგინალურობის განსაზღვრა რთულდება და თვითონ შემოწმების პროცესი შეიძლება დამღლელი და ხშირად არაეფექტიანი იყოს. პარალელურად გამოიკვეთა, რომ სტუდენტების ნაწილი ენდობა მოდელების პასუხებს ზედმეტად, განსაკუთრებით მაშინ, როცა შედეგებს იშვიათად ამოწმებს—ეს გადაჭარბებული თავდაჯერებულობა მაშინ იჩენს თავს, როცა ფაქტების გადამოწმება ნაკლებად ხდება და ტექნოლოგია აღიქმება როგორც „ბოლო ინსტანცია“. ამავე კვლევამ აჩვენა, რომ სტუდენტებისთვის ზრდასრულ პრობლემად რჩება პასუხების ხარისხი და შესაბამისობა (განსაკუთრებით ქართულ ენაზე კომუნიკაციის უცნაურობები, ფინანსურ–მათემატიკურ ამოცანებში სისუსტეები, „გამოგონილი“ წყაროები და ზედმეტად გრძელი, არამიზნობრივი პასუხები) — რაც კიდევ ერთხელ უსვამს ხაზს, რომ ეფექტიანი სწავლა–სწავლება მოითხოვს გადამოწმების ჩვევას და ინსტრუმენტების ფასილიტატორად აღქმას და არა საბოლოო არბიტრად.
სწორედ ამ კონტექსტში იძენს მნიშვნელობას მეთოდთა კომბინაცია, სადაც AI-ს როლშია ტექსტის ორგანიზება, იდეების გაჩაღება და მასალის ვიზუალიზაცია (მაგალითად, NotebookLM-ის გამოყენებით ლექციის მასალების გააზრება და მოკლე აუდიო/ვიდეო მიმოხილვებად ქცევა), ხოლო ძირითადი მიზანი არის სტუდენტის აზროვნების პროცესის გახსნა და არა მხოლოდ საბოლოო პროდუქტის წარმოება.
ამ მოტივებზე დგას მთავარი არგუმენტი: შეფასების მოდერნიზაცია უნდა გადავიდეს პროცესის გამჭვირვალობაზე, სადაც სტუდენტი საწყისი ჩანახატებიდან ფინალურ ტექსტამდე გვაჩვენებს გონებრივ გზას—როგორ გაჩნდა ჰიპოთეზა, რა წყაროებით იმუშავა, რა რისკები დაინახა AI-ის პასუხებში და როგორ გადაამოწმა ისინი. ამით უნივერსიტეტი იცავს როგორც სამართლიანობას (ვინაიდან „დეტექტორები“—ტექნიკური ანალიტიკა—არასოდეს იქნება 100%-იანი), ასევე სიღრმისეულ ცოდნას (რადგან „იქნებ AI-მ დაწერა“ აღარ არის საკმარისი ეჭვი მაშინ, როცა პროცესი ჩანს და არგუმენტი—გასაგებია). სამართლიანობა აქ არა მხოლოდ სტუდენტის უფლებების დაცვაა „ცრუ დადებითი“ ბრალდებებისგან, არამედ ნდობის აღდგენა—დეკანატებისა და აკადემიური საბჭოების მიერ მკაფიო გასაჩივრების მექანიზმების გაძლიერება, პრეცედენტების აღწერა და კომუნიკაცია „რა ითვლება დარღვევად“ და „რა—შეჯერებულ დახმარებად“.
ეკონომიკური პერსპექტივიდან, ეს ცვლილება დიპლომის სანდოობის საკვანძო ტესტია. თუ შრომის ბაზარი იძულებული გახდება, რომ უნივერსიტეტის მიერ დადასტურებულ უნარებს აღარ ენდოს, მასობრივად გავრცელდება ალტერნატიული სერტიფიკატები და დამოუკიდებელი ტესტები. ეს კი უნივერსიტეტებს აიძულებს ბრენდის რეპუტაციით უპასუხონ კითხვაზე: „რას ნიშნავს თქვენს ფაკულტეტზე მიღებული მაღალი ნიშანი AI-ის ეპოქაში?“ პასუხი ვერ იქნება მხოლოდ „აკრძალვებით“ ან „დეტექტორებით“; სწორი პასუხი იქნება შეფასების დიზაინი, რომელიც ავლენს სტუდენტის ჭეშმარიტ კომპეტენციას—კრიტიკულ აზროვნებას, წყაროების სამსახურს, არგუმენტის აგებას და ტექნოლოგიასთან პასუხისმგებლიან თანამშრომლობას.
პედაგოგიკურად, შედეგი იგივეა: ავტენტური დავალებები—პროექტები, პორტფოლიოები, რეფლექსიური ესეები რეალურ მონაცემებზე; ზეპირი პრეზენტაცია (oral defense)—როცა სტუდენტი საკუთარი ტექსტის მიღმა მდგომ აზროვნებას აცოცხლებს შეკითხვების ქვეშ; ვერსია–ისტორია—სადაც ნაჩვენებია შუალედური ბრუნვები, წაშლილ–შეცვლილი აბზაცები, „რატომ დავიჯერე“ და „როგორ გადავამოწმე“; სრული გამხელა—სადაც სტუდენტი ხელწერილივით წარადგენს: „AI-ს ეს ნაწილი გამოვიყენე, მაგრამ აქ ვიპოვე შეცდომა, აქ შევცვალე არგუმენტი, აქ დავამატე წყაროები“. ამ მიდგომებში მთავარი საგამოცდო მოთხოვნა ხდება არა პირობითი „არ გამოიყენო“ ან „გამოიყენე მხოლოდ X ინსტრუმენტი“, არამედ „მაჩვენე გზამკვლევი“—ხილული გზა, რომელიც მომზადების პროცესს დამაჯერებლად აჩვენებს.
ცხადია, ეს ყველაფერი მოითხოვს დამხმარე ინფრასტრუქტურას. თუ დაწესებულება სტუდენტებს კითხულობს „განსაზღვრულ, პასუხისმგებლიან გამოყენებას“, უნდა გარანტირდეს ფასიანი ინტერფეისების ბარიერის შემცირება—ერთიანი სასწავლო ლიცენზიები, პროფესორსა და სტუდენტს შორის დაცული კომუნიკაცია (სადაც არ ხდება პირადი მონაცემების ტრენინგში ჩასმა), და საბაზისო AI-წიგნიერება—მოკლე მოდულები „რა არის ჰალუცინაცია“, „როგორ ვამოწმებ წყაროს“, „როგორ ვაბალანსებ მოდელის რჩევას დისციპლინის სტანდარტთან“. ტექნოლოგიური არჩევანი შეიძლება განსხვავდებოდეს (გრაუნდინგზე ორიენტირებული ინსტრუმენტები სასწავლო მასალისთვის; უნივერსიტეტის მიერ დაცული ჩატ–ასისტენტი ყოველდღიური კითხვებისთვის), მაგრამ სტრატეგიული არქიტექტურა ყველგან ერთია: მასწავლებლის ხელში დარჩეს პედაგოგიკა, ხოლო AI—სიცოცხლისუნარიანი ფასი–დროის შემზოგი, არა მთავარი არბიტრი.
როდესაც პროცესი ხდება მონახაზი–ანოტაციებით დადასტურებული და ნიშანი—არგუმენტირებული შეფასების შედეგი, უნივერსიტეტი თანაბრად იცავს სამართლიანობასა და საიმედოობას. ეს არის ის ახალი სტანდარტი, რომელიც AI-ის ეპოქაში გამოცდას ტექსტის „დამოწმებისგან“ გადააქვს აზროვნების დემონსტრაციაში. იმავე გზით ისწავლიან სტუდენტებიც მომავლის პროფესიულ ეთიკას: ტექნოლოგია დაგეხმარება, მაგრამ პასუხისმგებლობა—შენი რჩება.
BTU-ს სრული კვლევა იხილეთ ბმულზე.