რატომ უჯერებენ სტუდენტები AI-ს ზედმეტად და რა შეიძლება გაკეთდეს?
სტუდენტები სულ უფრო ხშირად აღიქვამენ ხელოვნურ ინტელექტს როგორც უტყუარ წყაროს, თუმცა ეს ნდობა ხშირად ზედმეტია და სერიოზულ საფრთხეს ქმნის.

სტუდენტები სულ უფრო ხშირად აღიქვამენ ხელოვნურ ინტელექტს როგორც უტყუარ წყაროს, თუმცა ეს ნდობა ხშირად ზედმეტია და სერიოზულ საფრთხეს ქმნის. უნივერსიტეტებში AI-ის ინტეგრაციის ფონზე აშკარა ხდება, რომ ბევრი სტუდენტი პასუხებს იღებს ისე, რომ შედეგების გადამოწმებას არ ანდომებს დროს. ეს ქმნის ახალ საგანმანათლებლო პარადოქსს: ტექნოლოგია, რომელიც უნდა დაეხმაროს მათ უფრო კრიტიკულ აზროვნებაში, ზოგჯერ პირიქით, აქცევს მათ ზედმეტად თავდაჯერებულ და ზედაპირულ მომხმარებლებად.
BTU-ში ჩატარებულმა კვლევამ ცხადყო, რომ სტუდენტები, რომლებიც იშვიათად ამოწმებენ AI-ის პასუხებს, ყველაზე მეტად ენდობიან მათ. მეტიც, სწორედ ამ ჯგუფში ფიქსირდება ყველაზე მაღალი თავდაჯერებულობა მიღებული ინფორმაციის სიზუსტეში. ეს პრობლემა კარგად შეესაბამება ფსიქოლოგიაში ცნობილ „დანის–კრუგერის ეფექტს“, როცა ცოდნის ნაკლებობა იწვევს გადაჭარბებულ თავდაჯერებულობას. აქ კი ეს ეფექტი გაძლიერებულია: „თუ ხელოვნურმა ინტელექტმა თქვა, მაშინ ეს სიმართლეა.“
მსოფლიო მასშტაბითაც იგივე ტენდენცია ჩანს. ამერიკასა და ევროპაში ჩატარებულმა ექსპერიმენტებმა აჩვენა, რომ სტუდენტები ხშირად უფრო მეტად ენდობიან AI-ის მიერ გენერირებულ პასუხებს, ვიდრე ლექციაზე მოსმენილ განმარტებებს. მაგალითად, მათემატიკის ტესტებში ფიქსირდება შემთხვევები, როცა სტუდენტები უფრო მეტად აფასებენ მოდელის მიერ მოცემულ „მოკლე გზას“, ვიდრე საკუთარ გამოთვლებს. შედეგი კი ხშირად არის მცდარი პასუხის ბრმად მიღება. ასეთი დამოკიდებულება არა მხოლოდ ცოდნის ხარისხს აზიანებს, არამედ სწავლების კულტურასაც ანგრევს.
ფენომენი ახალ რეალობას ქმნის: თუ ადრე აკადემიური პრობლემები იყო პლაგიატი ან გადამღერებული ტექსტი, დღეს მთავარი საფრთხე გახდა გადაჭარბებული ნდობა ტექნოლოგიის მიმართ. სტუდენტი, რომელიც დარწმუნებულია, რომ AI მის მაგივრად უკეთ პასუხობს, აღარ ცდილობს საკუთარი გზით გაარკვიოს ამოცანა. ეს იწვევს უნარების დაკარგვას, კვლევის ჩვევების დაკნინებას და ზოგჯერ თვითკრიტიკის გაქრობასაც კი.
გარდა აკადემიური შედეგებისა, არსებობს სოციალური რისკიც. თუ ახალგაზრდები სწავლობენ, რომ მანქანა ყოველთვის მართალია, ეს შეიძლება გადატანილ იქნეს სხვა სფეროებშიც — მაგალითად, პოლიტიკაში, მედიაში, გადაწყვეტილების მიღებაში. მოქალაქეები, რომლებიც უპირობოდ ენდობიან ალგორითმებს, ნაკლებად მზად არიან კრიტიკული მონაწილეობისთვის საზოგადოებრივ ცხოვრებაში. ეს უკვე არა მხოლოდ უნივერსიტეტების, არამედ დემოკრატიული ინსტიტუტების პრობლემაა.
გამოსავალი მოითხოვს როგორც ინდივიდუალურ, ისე ინსტიტუციურ მიდგომას. პირველი ნაბიჯი არის სწავლის პროცესში „კრიტიკული თამაშების“ ჩართვა, სადაც სტუდენტები ვალდებულნი იქნებიან AI-ის პასუხების გადამოწმებაზე. მაგალითად, მასწავლებელმა შეიძლება ერთსა და იმავე კითხვაზე სამი სხვადასხვა მოდელის პასუხი შესთავაზოს და სთხოვოს სტუდენტს, გამოავლინოს განსხვავებები და შეაფასოს, რომელი უფრო სანდოა და რატომ. ასეთი სავარჯიშოები ასწავლის, რომ სიზუსტე არაა გარანტირებული და ყველა პასუხი საჭიროებს დამოწმებას.
მეორე ნაბიჯი არის შეფასების სისტემის რეფორმა. თუ სტუდენტი საბოლოო შედეგს იღებს მხოლოდ AI-ის დახმარებით, უნივერსიტეტმა უნდა შეაფასოს არა პროდუქტი, არამედ პროცესი: როგორ გადაამოწმა, რა წყაროები გამოიყენა, რა შეცდომები აღმოაჩინა. ამგვარი მიდგომა სტუდენტს აიძულებს, AI-ის გამოყენება პრაქტიკული ინსტრუმენტის სახით აღიქვას და არა „ცხელი ხაზის“ სახით.
მესამე ნაბიჯი არის ინსტიტუციური პოლიტიკის გაძლიერება. უნივერსიტეტებმა უნდა ჩამოაყალიბონ მკაფიო წესები, სადაც ნათქვამია: AI არის დამხმარე, მაგრამ არა საბოლოო ჭეშმარიტება. სტუდენტმა უნდა ისწავლოს, რომ გენერირებული ტექსტი მხოლოდ მონახაზია, რომელიც საჭიროებს საკუთარი ინტელექტუალური ძალისხმევით დამუშავებას.
ეს საკითხი ასევე უკავშირდება AI-წიგნიერებას. უნივერსიტეტებში სულ უფრო ხშირად ისმის წინადადება, რომ AI-თან მუშაობის ძირითადი უნარები გახდეს სავალდებულო კურსი. ეს გულისხმობს არა მხოლოდ ტექნიკურ ცოდნას, არამედ ეთიკურ ჩარჩოსაც: როგორ ავიცილოთ მიკერძოება, როგორ დავიცვათ კონფიდენციალურობა, როგორ გამოვიყენოთ ტექნოლოგია პასუხისმგებლიანად.
საბოლოო ჯამში, მთავარი მიზანია არა AI-ის აკრძალვა, არამედ მისი სწორი ინტეგრაცია. სტუდენტებმა უნდა იცოდნენ, რომ მანქანის მიერ შექმნილი პასუხი არ არის საბოლოო სიმართლე, არამედ სამუშაო მასალა, რომლის გადასამოწმებლად და კრიტიკული გაანალიზებისთვის თავად არიან პასუხისმგებელნი. მხოლოდ ასეთ პირობებში შეიძლება AI იქცეს ნამდვილ საგანმანათლებლო პარტნიორად და არა მცდარი ცოდნის წყაროდ.
BTU-ს სრული კვლევა იხილეთ ბმულზე.