ჟამთასვლისა და თანმდევი ტექნოლოგიური პროგრესის კვალდაკვალ ინფორმაციულ წყაროთა რიცხვიც გამუდმებით მატულობს.
მაშინ, როცა საუკუნის დასაწყისში ინტერნეტიც კი დიდი სიახლე იყო, დღესდღეობით თავად ინტერნეტს შიგნით იზრდება იმ საშუალებათა რიცხვი, რომლებიც საინფორმაციო წყაროდ შეგვიძლია გამოვიყენოთ.
ამ ტენდენციის პარალელურად ინფორმაციულ ქაოსთან დაკავშირებული საკითხებიც მეტად მრავალფეროვანი და კომპლექსური ხდება.
ბოლო პერიოდში ხელოვნურ ინტელექტზე (AI) შექმნილი ჩატბოტების მხრიდან მცდარი ინფორმაციის გენერირების, ჩვენი მხრიდან კი — მათი "ჰალუცინაციების" დაჯერების საფრთხემ იჩინა თავი.
AI ჩატბოტები: გრძელი ამბავი მოკლედ
კომპიუტერულ ინტერფეისთან ინტერაქციული კომუნიკაცია ბოლო ხანებში გახდა აქტუალური, თუმცა ეს ტექნოლოგია, რეალურად, გასული საუკუნის მეორე ნახევრიდანვე არსებობდა.
პირველი ჩატბოტი, სახელად ELIZA, 1966 წელს შექმნა MIT-ის მეცნიერმა ჯოსეფ ვეიზენბაუმმა. ამით მან მანქანასთან ადამიანის კომუნიკაციის პირველი მაგალითი გვიჩვენა. ბოტი ფსიქიკური ჯანმრთელობის სპეციალისტს ჰბაძავდა და მომხმარებელს ჩატის ფორმატში სთავაზობდა დახმარებას.
ELIZA-ს შემდეგ სხვადასხვა ტექნოლოგიაზე დაფუძნებული არაერთი განსხვავებული ჩატბოტი იქმნებოდა: აპლიკაციებში ჩაშენებული ბოტები (Slackbot, Messenger-ის ბოტები…) იქნება ეს თუ სულაც ისეთი პროგრამა, რომელსაც შეუძლია, ალბერტ აინშტაინის ნაცვლად გვესაუბროს.
ტექნოლოგიურ ინდუსტრიაში ყველაზე მასშტაბური ცვლილებები საბოლოოდ მაინც 2022 წელს ვიხილეთ, როდესაც კომპანია OpenAI-მ თავისი ჩატბოტი, ChatGPT, გამოუშვა.
ჩვეულებრივი საძიებო სისტემებისგან განსხვავებით, ჩატბოტები სხვადასხვა ვებსაიტის ბმულებს არ გვაწვდის და სასურველ ინფორმაციას მოკლე, სხვადასხვა წყაროებიდან შეჯერებული ტექსტის სახით გვაძლევს; შეუძლია სხვადასხვა ტიპის ტექსტები ჩვენ ნაცვლად შექმნას ან დაამუშაოს, თანაც საკმაოდ ადამიანური ენით.
ამან AI ჩატბოტების სწრაფი წარმატება განაპირობა. მზარდი აქტუალობის საპასუხოდ ChatGPT-ს არაერთი კონკურენტი გამოუჩნდა, მათ შორის: Google-ის ჩატბოტი Bard და Microsoft-ის Bing Chat.
ზემოთ ჩამოთვლილ ფუნქციებს თითოეული სხვადასხვა ხარისხით ასრულებს, თუმცა კი ერთი რამ ყველას ახასიათებს: ზოგჯერ ცრუობს.
გენერაციული ხელოვნური ინტელექტი და ჰალუცინაციების პრობლემა
ჩატბოტები ზოგჯერ ინფორმაციას "იგონებს" და ისეთ შიგთავსს აგენერირებს, რომელიც არანაირ წყაროს არ ეფუძნება. ტექნოლოგიურ სამყაროში ეს მოვლენა ჰალუცინაციების სახელითაც არის ცნობილი. ამას გარდა, AI ბოტები ზოგჯერ გამოგონების გარეშეც აგენერირებს მცდარ ფაქტებს.
ასეთი შემთხვევების ასახსნელად ჩატბოტების უკან მდგარ ტექნოლოგიებს უნდა ჩავუღრმავდეთ. ესენია გენერაციული ხელოვნური ინტელექტი და ენის მოდელები.
მას შემდეგ, რაც ენის მოდელი გაიწვრთნება, მას უკვე შეუძლია, ადამიანის მსგავსად "გვესაუბროს". წვრთნა, თავის მხრივ, რამდენიმე ეტაპს მოიცავს.
სწორედ აქ იჩენს თავს მცდარი ინფორმაციის გენერირების საფრთხე: ხელოვნური ინტელექტი არ ფიქრობს; მისი უკუკავშირი მხოლოდ ენობრივ კანონზომიერებებს ეყრდნობა და შეუძლებელია განისაზღვროს, რამდენად შეესაბამება რეალობას მისი სიტყვათშეთანხმებები.
მნიშვნელოვანია საწვრთნელი მონაცემების ნაწილიც: რა ტიპის ინფორმაციასაც მოდელს აწვდიან, სწორედ იმას ვხედავთ ინტერფეისზეც — ზოგჯერ სიცრუეს.
ქართული ჟიპიტაურის ცნობილი მაგალითი
"ჰალუცინაციების" პრობლემის წარმოსაჩენად ჟიპიტაური, ChatGPT-ის ქართული ანალოგი, ერთ-ერთი ყველაზე ნათელი მაგალითია. ეს ბოტი სტარტაპმა Supernova-მ შექმნა ორიგინალ ვერსიასა და თარგმნით ტექნოლოგიებზე დაყრდნობით, რათა ქართველ მომხმარებლებს მშობლიურ ენაზეც შეგვძლებოდა ჩატბოტის გამოყენება.
განსხვავებით ChatGPT-სგან, ჟიპიტაური ხშირად "იტყუება", უამრავ ინფორმაციას იგონებს და სტერეოტიპულ მოსაზრებებსაც აჟღერებს.
მისი გაშვებიდან მალევე ინტერნეტში არაერთი კრიტიკული გამოხმაურება ვიხილეთ.
ჩანს, რომ ჩატბოტი რუსეთ-საქართველოსა და რუსეთ-უკრაინის კონფლიქტებთან დაკავშირებით მცდარ ფაქტობრივ ინფორმაციას აგენერირებს; გარდა ამისა, იგი გენდერულ როლებთან დაკავშირებით სტერეოტიპულ შიგთავსს გვთავაზობს და საკმაოდ უჩვეულო "რეცეპტსაც" გვიზიარებს.
შემთხვევები ჩატბოტის მანიპულაციური გამოყენებით ან მისი შემქმნელის პოლიტიკური მიკერძოებით არ ახსნილა. საქმე დიდი ენის მოდელის მუშაობის პრინციპშია:
"მარტივი ანალოგით შეიძლება უფრო გასაგები გახდეს: ვთქვათ, დავგუგლე 2 + 2; შეიძლება რომელიმე ვებგვერდზე ეწეროს, რომ 2 + 2 = 5; ეს არც იმას ნიშნავს რომ ეს ინფომრაცია სწორია და არც იმას ნიშნავს, რომ გუგლმა შეგვიყვანა მომხმარებელი შეცდომაში", — განაცხადა ზაალ გაჩეჩილაძემ, სტარტაპის დამფუძნებელმა, NEXT.On.ge-სთან საუბრისას — "იგივენაირად ხდება ჟიპიტაურის შემთხვევაშიც — ამ სისტემას წაკითხული აქვს ბევრი ტექსტი ბევრი ვებგვერდიდან. გუგლისგან განსხვავებით, ლინკებს კი არ გვთავაზობს, არამედ ამ ლინკებზე არსებულ ტექსტებს აწებებს ერთმანეთს".
შეცდომების ალბათობა მაშინ განსაკუთრებით მატულობს, როდესაც გარკვეულ საკითხთან დაკავშირებით ინტერნეტში ინფორმაცია ორად იყოფა. ორიგინალი ChatGPT-სგან განსხვავებით, ამგვარი ხარვეზებისაგან ჟიპიტაური ნაკლებადაა დაზღვეული, ვინაიდან იგი გაცილებით "ახალგაზრდაა" და მომხმარებლის უკუკავშირიც აკლია სიზუსტის გასაუმჯობესებლად.
ქართული ჩატბოტის დახვეწამდე ჯერაც დიდი გზაა გასავლელი, თუმცა მისი ამჟამინდელი შესაძლებლობების გამოცდა მაინც შეგიძლიათ ამ ბმულზე. სხვათა შორის, თუკი საკუთარ სახელ-გვარს მიაწვდით და ამ პიროვნების ვინაობას ჰკითხავთ, საკმაოდ უჩვეულო პასუხსაც მიიღებთ.
სხვა დროს ყველაფერი არც ისეთი ნათელია
2008 წელს რომ ომი საქართველოს არ დაუწყია, მეტ-ნაკლებად ისედაც ყველასათვის ცხადია. რა ხდება მაშინ, როდესაც ხელოვნურ ინტელექტს ჯეიმს ვების კოსმოსური ტელესკოპის აღმოჩენებზე ვუსვამთ კითხვას და მცდარ პასუხს ვიღებთ?
სწორედ ეს მოხდა 2023 წლის თებერვალში, როცა Google-მა თავისი AI ჩატბოტი, Bard, წარადგინა. დემონსტრაციისას დაშვებული შეცდომის გამო გუგლის მშობელმა კომპანიამ საბაზრო ღირებულების 100 მილიარდი აშშ დოლარი დაკარგა.
გაცილებით სერიოზული შეცდომები გვიხილავს ყველაზე პოპულარული ჩატბოტის, ChatGPT-ს, მხრიდანაც.
Ars Technica-ს მიხედვით, ჰერმან საქსონომ, ჩრდილოაღმოსავლეთის უნივერსიტეტის პროფესორმა, ჩატბოტს 10 საუკეთესო წიგნის დასახელება სთხოვა სოციალური კოგნიტიური თეორიის შესახებ. გენერირებულ პასუხში 4 წიგნი საერთოდ არ არსებობდა, 3 კი სხვა ავტორების მიერ იყო შექმნილი.
ეს პირველი შემთხვევა სულაც არაა, როდესაც ჩატბოტმა არარსებული კვლევები, პუბლიკაციები და ყალბი აკადემიური ნაშრომები გამოიგონა.
ჰალუცინაციები ადამიანებს პირადადაც შეხებია: ChatGPT-მ ერთ-ერთი პროფესორი იმ სწავლულთა სიაში შეიყვანა, რომელთაც ვიღაც სექსუალურად შეავიწროვეს.
საგულისხმოა, რომ ChatGPT მაინც ყველაზე დახვეწილი ჩატბოტია. გაცილებით დიდია რისკები სხვა ბოტების მხრიდან. მაგალითისთვის, აშშ-ის კვებითი აშლილობების ეროვნულმა ასოციაციამ ცხელი ხაზის მომსახურება ჩატბოტით, სახელად Tessa, ჩაანაცვლა. შემდეგ გაირკვა, რომ კვებითი აშლილობების მქონე პირებს იგი არარელევანტურ, დაავადების მაპროვოცირებელ რჩევებს აძლევდა. Tessa-ს ხანმოკლე მოღვაწეობა ამით დასრულდა.
უნდა აღინიშნოს, რომ ჩატბოტების გამოყენებისას არსებობს პირადი ინფორმაციის გაჟონვის საფრთხეც: Google თავის თანამშრომლებს აფრთხილებს, რომ სენსიტიური ინფორმაცია კომპანიისავე ჩატბოტშიც კი არ შეიყვანონ.
თავისთავად, ჩატბოტების ინფორმაციულ რისკებზე თითოეულის შემქმნელი ყველა კომპანია გარკვევით გვარფთხილებს, თუმცა, რამდენადაა ეს საკმარისი — თავად განსაჯეთ.
AI და ინფორმაციული ყოველდღიურობა: შესაძლოა, ინტერნეტში ხელოვნური ინტელექტის დაწერილ სტატიას კითხულობდეთ
ChatGPT-სა და სხვა ჩატბოტებს საკმაოდ მრავალფეროვანი მიზნებით იყენებენ: რეზიუმეებისა თუ სამოტივაციო წერილების შესადგენად, ესეებისა თუ წიგნების დასაწერად, გამოცდების ჩასაბარებლად, მავნე პროგრამების შესაქმნელად და ა.შ.
გარდა ინდივიდებისა, ხელოვნურ ინტელექტზე დაფუძნებული საშუალებების გამოყენება მედიებმაც დაიწყეს. CNET, რომელსაც სიახლის შესახებ თავად არ განუცხადებია, ამის ერთ-ერთი პირველი მაგალითია.
"ჩემ შესახებ: ეს სტატია AI ძრავის დახმარებით შეიქმნა, განხილვა, შემოწმება და რედაქტირება კი ჩვენი სარედაქციო კოლეგიის მიერ გაიარა", — ვკითხულობთ CNET-ის საიტზე, CNET Money სექციის თავში.
ხელოვნურ ინტელექტს არაერთი სხვა მედიაც იშველიებს, მათ შორის Buzzfeed. მიუხედავად ამისა, ამგვარი ხელსაწყოები ჟურნალისტების ჩასანაცვლებლად ჯერ საკმაოდ დახვეწილი არაა და პროცესში ადამიანის ჩარევა მაინც საჭიროა: AI-ს მიერ შექმნილი სტატიების დიდ ნაწილში CNET-ის რედაქტორებმა არაერთი შეცდომა აღმოაჩინეს.
თავისთავად, საქართველოს ჭრილში ამგვარი მიდგომები საკმაოდ შორი პერსპექტივაა, რადგან ენის მოდელები ქართულ ენაზე კარგად არაა გაწვრთნილი.
აბი ჰალუცინაციების წინააღმდეგ
AI ჰალუცინაციები სერიოზულ პრობლემათა რიცხვს განეკუთვნება. ამ და სხვათა გამო მსოფლიოს ტექნოლოგიური ლიდერები, ილონ მასკი და სტივ ვოზმიაკი, ფიქრობენ, რომ ხელოვნური ინტელექტის განვითარება ცოტა ხნით უნდა შეჩერდეს.
კონფიდენციალობასთან დაკავშირებული პრობლემების გამო იტალიაში ყველაზე პოპულარული ChatGPT აიკრძალა. ამასობაში ამ და სხვა ჩატბოტთა სიკეთეებით სარგებლობა სხვა ქვეყნის მოქალაქეებს თავისუფლად შეგვიძლია. შესაბამისად, უმჯობესია, ჩატბოტთა ინფორმაციული საფრთხეებისაგან თავის დასაცავად რამდენიმე ზოგადი პრინციპი გავითვალისწინოთ.
ისიც გასათვალისწინებელია, რომ ხელოვნური ინტელექტის მიერ დაწერილი ტექსტების გამოსავლენად უკვე სპეციალური ხელსაწყოც არსებობს. OpenAI-ს მიერ შექმნილ AI კლასიფიკატორს სხვადასხვა პრობლემის გამოაშკარავება შეუძლია, მათ შორის, დეზინფორმაციის ავტომატიზებული კამპანიებსა და აკადემიური არაკეთილსინდისიერების.
აღნიშნულ მოდელს ამ ბმულზე გამოცდით. იგი ქართულ ენაზე არ მუშაობს და, თუ მაინცდამაინც რამე იეჭვეთ, არც იმის შესამოწმებლად გამოდგება, ახლახან ხელოვნური ინტელექტის ნაწერი წაიკითხეთ, ადამიანისა თუ — ორივესი ერთად.
მარიამ რამაზაშვილი
მითების დეტექტორის ლაბორატორია, 2023