Accessibility links

რადიო თავისუფლება რადიო თავისუფლება

ყალბი რუსული Pravda, რომელიც სოციალური ქსელებისა და ხელოვნური ინტელექტის მოწამვლას ცდილობს


"TikTok-ში 17 მილიონი მომხმარებელია უკრაინიდან" - Digital 2025-ის გლობალური კვლევის ანგარიში.
"TikTok-ში 17 მილიონი მომხმარებელია უკრაინიდან" - Digital 2025-ის გლობალური კვლევის ანგარიში.

რუსეთმა გააუმჯობესა საინფორმაციო ომის წარმოების მეთოდები და ხერხები - თუ ადრე, უკრაინაში შეჭრის საწყის ეტაპზე, კრემლი იყენებდა აშკარა პროპაგანდას, ახლა იგი სულ უფრო ხშირად მიმართავს ისეთ ინსტრუმენტებს, რომლებიც შენიღბულია ნამდვილი საინფორმაციო წყაროების ან „ალტერნატიული“ კონტენტის სახით.

მკვლევრების ანალიზით, კრემლის პროპაგანდის ხელში ერთ-ერთი მნიშვნელოვანი ინსტრუმენტია ყალბი მედიასაიტების ფართო ქსელის შექმნა, მათ შორის Pravda-ს ბრენდის ქვეშ და მოზარდებში TikTok-ის გამოყენება დეზინფორმაციის გავრცელების პლატფორმის სახით.

Pravda-ს ქსელი იმიტირებს ლოკალურ მედიას

უკანასკნელი ორი წლის განმავლობაში ანალიტიკოსები, ჟურნალისტები და OSINT-გამომძიებლები ხშირად ხედავენ ისეთი ახალი საინფორმაციო საიტების გაჩენას, რომლებიც იყენებენ Pravda-ს სახელს სხვადასხვა ქალაქის, რეგიონის ან უცხო ქვეყნის დომენთან შესაბამისობაში.

ეს რესურსები, ერთი შეხედვით, ჩვეულებრივ საინფორმაციო პორტალებს ჩამოჰგვანან: აქვთ განყოფილებები: პოლიტიკა, ეკონომიკა, საერთაშორისო ამბები, ახალი ამბები და ა.შ. მაგრამ თუ ჩაუღრმავდებით, ცხადი გახდება, რომ ისინი თითქმის არ ახდენენ თავიანთი კონტენტის გენერირებას. როგორც წესი, რეპოსტებს უკეთებენ უკვე გავრცელებულ ინფორმაციას (ახალ ამბებს, სტატიებს, კომენტარებს და ა.შ.) რუსულ წყაროებზე დაყრდნობით.

OSINT-გამომძიებლები - (OSINT — Open Source Intelligence, ანუ ღია წყაროებიდან მოპოვებული დაზვერვა) — მკვლევრები, ჟურნალისტები ან ანალიტიკოსები, რომლებიც მუშაობენ საჯაროდ ხელმისაწვდომი ინფორმაციის საფუძველზე, რათა გამოავლინონ და შეისწავლონ სხვადასხვა მოვლენა, ფაქტი ან პირი. OSINT-გამომძიებლები იყენებენ ისეთ ღია წყაროებს, როგორიცაა: სოციალური ქსელები (Twitter/X, Facebook, TikTok და სხვ.); სატელიტური სურათები და რუკები (მაგ. Google Maps, Sentinel Hub); მედიამასალები და ვიდეოკადრები; ოფიციალური დოკუმენტები და მონაცემები; ფორუმები და ვებსაიტები.

ლონდონის სტრატეგიული დიალოგის ინსტიტუტის უფროსი ანალიტიკოსის, ოლგა ტოკარიუკის თქმით, საქმე გვაქვს ყალბ (ფეიკ) პლატფორმებთან, რომელთა მიზანია უკრაინის ხელისუფლების დისკრედიტაცია, პრორუსული ნარატივების გავრცელება და „ალტერნატიული (განსხვავებული) აზრის“ ილუზიის შექმნა.

„საუბარია უზარმაზარი რაოდენობის რესურსზე - დაახლოებით 150 საიტზე, რომელთა რაოდენობა განუხრელად იზრდება 2022 წლიდან. რუსეთი ამ კამპანიას აწარმოებს 49 ენაზე და ენების ეს რაოდენობაც მუდმივად მატულობს“, - უთხრა ოლგა ტოკარიუკმა რადიო თავისუფლების უკრაინულ სამსახურს.

მისი თქმით, ეს საიტები ინფორმაციას (კონტენტს) იღებენ როგორც რუსული სახელმწიფო მედიებისგან და რუსულ ტელეგრამ-არხებისგან, ასევე კრემლის მოკავშირე ქვეყნების ადგილობრივი არხებისა და ვებსაიტებისგან.

„უკრაინა არის Pravda-ს ვებსაიტების ქსლის მთავარი თემა. Pravda - ეს სიტყვა გამოყენებულია ყველა საიტის სახელში. ანუ ეს შეიძლება იყოს მაგალითად Pravda-news, რომლის ბოლოში უბრალოდ მითითებული იქნება შესაბამისი ქვეყნის დომენი, მაგალითად "cz" - Pravda-news.cz, რაც ჩეხურ ვერსიას ნიშნავს და ა.შ“, - ამბობს ანალიტიკოსი.

მორიგი საფრთხე: Pravda-ს მიზანი - ხელოვნური ინტელექტის დაინფიცირება

NewsGuard-ის კვლევის თანახმად, მხოლოდ 2024 წელს Pravda-ს ქსელმა 3.6 მილიონი სტატია გამოაქვეყნა. მკვლევრების თქმით, ამ კამპანიის მორიგი მიზანი დასავლური ხელოვნური ინტელექტის (AI) სისტემების „მოწამვლაა“.

კვლევისას შეისწავლეს 10 ყველაზე პოპულარული AI (ხელოვნური ინტელექტი) ჩატბოტი - მათ შორის: ChatGPT-4o (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) და Perplexity. შესამოწმებლად გამოიყენებოდა 15 ყალბი ნარატივის კრებული, რომლებსაც Pravda-ს ქსელი აქტიურად ავრცელებდა 2022 წლის აპრილიდან 2025 წლის თებერვლამდე.

კვლევის შედეგები დასტურდება ამერიკული არაკომერციული ორგანიზაციის American Sunlight Project-ის (ASP) ანგარიშის მონაცემებით, რომლებიც გამოქვეყნდა 2025 წლის თებერვალში. მასში აღნიშნულია, რომ „Pravda“-ს ქსელი, სავარაუდოდ, შეიქმნა არა რეალურად არსებული მომხმარებლების მისაზიდად, არამედ AI მოდელების მუშაობაზე გავლენის მოხდენის მიზნით.

„შემთხვევების მესამედში ჩატ-ბოტები, განსაკუთრებით მაშინ, როცა მათ უსვამენ კითხვას, რომელიც ნაწილობრივ იმეორებს რუსეთის პროპაგანდის ნარატივებს, მეტად მიდრეკილნი არიან დაეყრდნონ სწორედ ამ ქსლის (Pravda) წყაროებს. რაც განსაკუთრებით სახიფათოა, Pravda ხვდება ყველაზე პოპულარულ საძიებო სისტემებში. როცა რაღაც მოთხოვნა კეთდება Google-ში, სულ უფრო მაღალია იმის ალბათობა, რომ Pravda-ს ქსლის რომელიმე საიტი მოხვდება შედეგების პირველივე გვერდზე. ეს ეხება „ვიკიპედიასაც“ — ამბობს ოლგა ტოკარიუკი.

მისი თქმით, საგანგაშოა ის, რომ Pravda-ს რესურსების - ბმულებისა და ინფორმაციის მოხმობა-მითითებას იწყებენ დასავლური გამოცემებიც:

„გავაანალიზე გარკვეული რაოდენობის გამოცემა და აღმოვაჩინე, რომ ისეთ პატივსაცემ და ავტორიტეტულ მედიასაშუალებებსაც კი, როგორიც არის The Atlantic, ერთ-ერთ სტატიაში მითითებული ჰქონდა Pravda-ს ქსელის ერთი საიტი. ასევე, ზოგიერთი უკრაინული მედია, როგორც ჩანს, ვერ ხვდება, რასთან აქვს საქმე და წყაროს სახით უთითებს ამ ქსლის საიტებზე გამოქვეყნებული სტატიების ბმულებს. მაგალითად, ერთ-ერთი გამოცემა, როცა წერდა ჩეხეთის მიერ უკრაინისათვის გაწეულ დახმარებაზე, წყაროდ უთითებდა Pravda-ს ჩეხურ ვერსიას.

ამიტომ, თუ განვაზოგადებთ, ეს ქსელი შექმნილია იმისთვის, რომ ინტერნეტი შეავსოს პროპაგანდისთვის ხელსაყრელი კონტენტით და, რომ ეს კონტენტი შემდეგ მოხვდეს როგორც საძიებო სისტემებში, ასევე ლეგიტიმურ მედიასაშუალებებში და ხელოვნური ინტელექტის ჩატ-ბოტებშიც კი“.

Pravda Syria-ს საიტზე გამოქვეყნებული სტატია, რომელსაც ეყრდნობოდნენ The Atlantic-ის ჟურნალისტები
Pravda Syria-ს საიტზე გამოქვეყნებული სტატია, რომელსაც ეყრდნობოდნენ The Atlantic-ის ჟურნალისტები

ფრანგული სააგენტო Viginum იტყობინება, რომ Pravda-ს ქსელის ადმინისტრატორია IT-კომპანია TigerWeb-ი, რომელიც მდებარეობს რუსეთის მიერ ოკუპირებულ ყირიმში. ამ კომპანიის ხელმძღვანელია ევგენი შევჩენკო - ყირიმელი ვებდეველოპერი, რომელიც ადრე მუშაობდა კომპანია „Крымтехнологии“-ში, რომელიც, თავის მხრივ, მომსახურებას უწევდა ყირიმის რუსულ ადმინისტრაციას.

„სააგენტო Viginumს-ს შეუძლია დაადასტუროს, რომ რუსული TigerWeb-ი და მისი ხელმძღვანელობა მონაწილეობდნენ იმ ფართომასშტაბიანი საინფორმაციო-პროპაგანდისტული ქსელის შექმნაში, რომლის მიზანია რუსეთის ინტერესების სასარგებლო საინფორმაციო გარემოს ჩამოყალიბება როგორც რუსეთის შიგნით, ასევე მის ფარგლებს გარეთ“, — ნათქვამია Viginum-ის კვლევაში.

TikTok: გაართე და იმანიპულირე?

სანამ Pravda-ს საიტების ქსელი ორიენტირდება იმ აუდიტორიაზე, რომელიც ძირითადად ტექსტური ახალი ამბების მოძიებითაა დაინტერესებული, TikTok იქცა ახალგაზრდებზე გავლენის მოხდენის მთავარ პლატფორმად. განსაკუთრებით ეს ეხება თინეიჯერებსა და 25 წლამდე ასაკის ადამიანებს, რომლებიც ინფორმაციას ძირითადად მოკლე ვიდეოების ფორმატში მოიხმარენ.

ამ სივრცეში რუსეთი აქტიურად იყენებს სხვადასხვა ფორმას, მიმართავს ექსპერიმენტებს. მაგალითად ავრცელებს ე.წ. „ემოციური სიმართლის“ მოკლე ვიდეოებს, რომლებშიც ვითომ „უკრაინელი სამხედროები“ ჩივიან ცუდ მეთაურობაზე ან „ჩვეულებრივი სოფლელი ქალი“ ტირის შვილის მობილიზაციის გამო - ყველა ასეთი ვიდეო კლიპი იქმნება ადამიანთა გრძნობებზე მოთამაშე შაბლონების მიხედვით.

„TikTok-ი აგროვებს ყველაზე დიდი მოცულობის ინფორმაციას საკუთარი მომხმარებლების შესახებ, რაც საინფორმაციო ბუშტის (ინგ. bubble) სწრაფი ჩამოყალიბებისა და შეცვლის საშუალებას იძლევა. თუ ადამიანი აღმოჩნდა რუსული საინფორმაციო ოპერაციების ბუშტში, იქიდან გამოღწევა ძალიან გაუჭირდება. აქ უკვე აღარ აქვს მნიშვნელობა, რომელი ინსტრუმენტი იქნა გამოყენებული - „რეალური ბლოგერები“, „ბოტებით დარწმუნება“ თუ „ფსევდო საინფორმაციო რესურსები“, — განაცხადა ინიციატივის „როგორ არ ვიქცეთ ბოსტნეულად“ დამფუძნებელმა ოქსანა მოროზმა რადიო თავისუფლების უკრაინულ რედაქციასთან საუბარში.

კვლევითი კომპანია DataReportal-ის მიერ სარეკლამო აუდიტორიის შეფასების შესახებ გამოქვეყნებული გლობალური კვლევის Digital 2025-ის რეგიონული ანგარიშის მიხედვით, TikTok-ში 17 მილიონი უკრაინელი მომხმარებელია რეგისტრირებული. ჩინურმა პლატფორმამ რაოდენობრივად გაუსწრო ისეთ კონკურენტებს, როგორიცაა Instagram (12 მილიონი) და Facebook (13.9 მილიონი).

„ასეთი დიდი რაოდენობის მომხმარებლისა და მრავალფეროვანი ინსტრუმენტების გამოყენებით, რუსეთს შეუძლია კომპლექსურად ჩამოაყალიბოს საინფორმაციო ველი. უკრაინელები კი თავიანთი ნახვებითა და „სასარგებლო იდიოტების“ მაღალი ჩართულობით, იჯერებენ რა ამა თუ იმ გზავნილის შინაარსს და დარწმუნებულები არიან, რომ კარგ საქმეს აკეთებენ, შეგნებულად ან შეუგნებლად ავრცელებენ რუსულ პროპაგანდას“, — ამბობს ოქსანა მოროზი.

ექსპერტების თქმით, დღეს ერთ-ერთი ყველაზე ეფექტიანი ინსტრუმენტი, რომელიც გამოიყენება დეზინფორმაციული და ყალბი (ფეიკ) კონტენტის შექმნისას, არის ხელოვნური ინტელექტი (AI). როგორც ოქსანა მოროზი აღნიშნავს, AI-ის დახმარებით იქმნება რეალისტური ვიდეოები, რომლებშიც აქტუალური თემები ემოციურად მუშავდება და სწრაფად ვრცელდება სოციალურ ქსელებში.

„ხელოვნური ინტელექტი ნამდვილი, არსებული სამხედროების ვიდეოებს გადაამუშავებს და მასში შეიტანს ისეთ ცვლილებებს, როგორიც მნიშვნელოვანია პროპაგანდისთვის. თუმცა ასევე იქმნება მთლიანად ხელოვნური ინტელექტის მიერ გენერირებული ვიდეოებიც. მაგალითად, როცა კურსკის მიმართულებით ვითარება გამწვავდა, ვრცელდებოდა საკმაოდ რეალისტური ვიდეოები, რომლებშიც ვითომ უკრაინელი სამხედროები ამბობდნენ, რომ „ისინი ალყაში მოექცნენ“, რომ „ორიოდე საათიღა დარჩათ“, რომ „ისინი ყველამ მიატოვა“ და ა.შ. სწორედ მსგავსი შინაარსის ვიდეოებით ხდება სამხედრო თემების ექსპლუატაცია TikTok-ში“, — ამბობს ექსპერტი.

2024 წლის აპრილში დეზინფორმაციის წინააღმდეგ ბრძოლის ცენტრმა განაცხადა, რომ დაიწყო იმ არხების დაბლოკვა, რომლებიც TikTok-ზე ავრცელებენ რუსულ დეზინფორმაციას. დაბლოკილთა შორის მოხვდნენ უკრაინელების ის არხებიც, რომლებიც, ცენტრის აზრით, პრორუსულ ნარატივებს ავრცელებდნენ.

„იქ იყვნენ ცნობილი ბლოგერებიც, რომლებიც ამჟამად, მაგალითად, საზღვარგარეთ იმყოფებიან. იგივე მიროსლავ ოლეშკო და ისეთი რუსი პროპაგანდისტები, როგორიცაა დიანა პანჩენკო. მაგრამ მე ასევე მივაქციე ყურადღება ისეთ არაორდინარულ რაღაცებს, როგორიცაა "სახალხო ბლოგერები". ასეთი ბლოგერები ალექსანდრ პოვოროზნიუკის (შპს "აგროფირმა პითხატსკაიას" გენერალური დირექტორი, რომელმაც პოპულარობა მოიპოვა სოციალურ ქსელებში ვიდეოებით, რომლებიც შეიცავს არანორმატიულ ლექსიკას - რ.თ.) სტილში ჰყვებიან, რომ "მათ უკეთ იციან, რადგან მათი ნათლიმამა სადღაც იქ მუშაობს და მისგან მიიღეს გარკვეული ინფორმაცია". ინფორმაციის მიწოდების ასეთი სტილი, სამწუხაროდ, უფრო მეტ აუდიტორიას იზიდავს და, ასევე სამწუხაროდ, მას უფრო მეტად ენდობიან ლოგიკით: შენიანი არ მოგატყუებს", - ამბობს ოქსანა მოროზი.

ოქსანა მოროზის თქმით, მიუხედავად იმისა, რომ თვითონ ჩინურ სოციალურ ქსელს დეზინფორმაციის პრევენციის მკაფიო ალგორითმები არ აქვს, უკრაინის სპეცსამსახურების სამართლებრივი ინფორმაციის ცენტრთან თანამშრომლობით, მაინც მოხერხდა გარკვეული ნაბიჯების გადადგმა TikTok-ის მომხმარებლების გაფრთხილებისა და ფეიკ-კონტენტისგან დაცვის მიმართულებით.

„ავიღოთ მობილიზაციის დისკრედიტაციის თემა, რომელიც დაიწყო TikTok-ზე და ახლაც გრძელდება რუსეთის ფედერაციის მხრიდან. TikTok-ს, სულ მცირე, შეუძლია საინფორმაციო შეტყობინებების გაგზავნა, რომ აქ შეიძლება დეზინფორმაცია იყოს“, - ამბობს ოქსანა მოროზი.

როგორ ამოვიცნოთ დეზინფორმაცია TikTok-ზე?

ოქსანა მოროზი დარწმუნებულია, რომ საინფორმაციო ჰიგიენა და მანიპულაციის ამოცნობა, ერთ-ერთი მნიშვნელოვანი ინსტრუმენტია, რომელიც აუცილებლად უნდა გავრცელდეს სოციალური მედიის ჩვეულებრივ მომხმარებელთა შორის. ექსპერტი ჩამოთვლის რამდენიმე ინდიკატორს, რომლებიც შეიძლება მიუთითებდნენ ყალბ ინფორმაციაზე (ფეიკზე) ან მანიპულირებაზე.

„თითქმის ერთადერთი უნივერსალური წესია - ყურადღება მიაქციოთ ემოციას, რომელიც გაგიჩნდებათ ამა თუ იმ მასალის ყურების ან წაკითხვის შემდეგ. თუ ეს ემოცია (სულ ერთია სიხარულია, სევდა თუ შიში) იმდენად ძლიერია, რომ დაუყოვნებლივ მოგინდათ ამ მასალის გაზიარება - ეს არის პირველი ნიშანი იმისა, რომ შესაძლოა თქვენს მანიპულირებას ცდილობდნენ", - თქვა ოქსანა მოროზმა, რომლის თქმითაც, სწორედ ამაში მდგომარეობს TikTok-ის ერთ-ერთი პრობლემა, რადგან მისი ალგორითმები აგებულია ემოციებზე და, შესაბამისად, სწორედ ასეთი კონტენტი ვრცელდება ყველაზე მეტად.

გარდა ამისა, მოროზის თქმით, ყურადღება უნდა მიექცეს ამა თუ იმ კონტენტის გამავრცელებლის ვინაობას. განსაკუთრებით მაშინ, როცა საქმე ეხება ახალ ამბებს.

"მნიშვნელოვანი მომენტია წყაროს ანონიმურობა! დიდი ძახილის ნიშანი! თუ ხედავთ რამე საინფორმაციო სიახლეს ექაუნთზე (ანგარიშზე), რომლის იდენტიფიცირებაც ვერ ხერხდება (ვინ არის პასუხისმგებელი კონტენტზე, რომელი მედია, ბლოგერი ან პირი ავრცელებს) - მოკლედ, თუ არხი ანონიმურია, ეს ნიშნავს, რომ იგი შექმნილია დეზინფორმაციისთვის".

ფორუმი

XS
SM
MD
LG