İnternetin ağıllısı sənə hər şeyi deyə bilər – amma doğru deyil!
Süni zəka informasiya verir, məsuliyyət daşımır, səhvin bədəli ağır ola bilər
Texnologiyanın sürətlə inkişaf etdiyi bir dövrdə rəqəmsal aləm artıq gündəlik həyatın ayrılmaz hissəsinə çevrilib. Əlaqə vasitələrindən tutmuş, alış-veriş, bank əməliyyatları və təhsil sistemlərinə qədər bir çox sahə rəqəmsallaşma ilə tamamilə yenidən qurulur. Rəqəmsal dövrün ən diqqət çəkən texnologiyalarından biri, şübhəsiz ki, süni intellekt (AI) sistemləridir. ChatGPT kimi böyük dil modelləri mürəkkəb suallara cavab verməkdən tutmuş yaradıcı yazı hazırlamağa qədər bir çox sahədə təsirli nəticələr verə bilər. Süni intellekt anlayışı bir vaxtlar yalnız elmi fantastika filmlərində rast gəldiyimiz uzaq bir gələcəyin simvolu olsa da, bu gün artıq gündəlik həyatın, iş dünyasının və hətta şəxsi qərarlarımızın ayrılmaz hissəsinə çevrilib. İnformasiyanın emalı, avtomatlaşdırılmış xidmətlər, səhiyyə, təhsil və media kimi müxtəlif sahələrdə süni intellektdən istifadə edilməsi, bu texnologiyanın nə qədər geniş potensiala malik olduğunu açıq şəkildə göstərir. Lakin bu sürətli inkişaf özü ilə yanaşı ciddi etik, təhlükəsizlik və dəqiqlik problemlərini də gətirir. Mütəxəssislər bu sistemlərə hər sahədə etibar etməyin təhlükəli olduğunu vurğulayırlar. Süni intellektin verdiyi cavablar bəzi hallarda yanlış yönləndirmələrə və ciddi təhlükəsizlik risklərinə yol aça bilər. Buna görə də mütəxəssislər istifadəçiləri xüsusilə aşağıdakı dörd mövzu üzrə ehtiyatlı olmağa çağırır:
1. Sağlamlıq problemləri və müalicə tövsiyələri
ChatGPT ümumi sağlamlıq mövzusunda məlumat verə bilsə də, şəxsi tibbi vəziyyətlərlə bağlı cavabları etibarlı hesab edilə bilməz. Hər bir insanın orqanizmi və sağlamlıq durumu fərqlidir, bu səbəbdən süni intellektin təqdim etdiyi məsləhətlər yanlış nəticələrə yol açar.
2. İnvestisiya məsləhətləri və maliyyə qərarları
Maliyyə qərarları şəxsi risk profili, gəlir vəziyyəti və mövcud iqtisadi şərait əsasında verilməlidir. Süni intellekt internetdəki məlumatlara əsaslanaraq ümumi tövsiyələr təqdim edə bilər, lakin bu tövsiyələr fərdi uyğunluğu təmin etmir. Yanlış yönləndirmə ciddi maddi itkilərə və dələduzluq riskinə səbəb ola bilər.
3. Şəxsi məlumatlar və məxfi informasiyalar
Süni intellekt sistemlərinə şəxsiyyət vəsiqəsi nömrəsi, bank hesabları, ünvan və digər həssas məlumatların verilməsi ciddi təhlükə yarada bilər. Belə məlumatlar sistemlərdə qeydə və kibercinayətkarların əlinə keçər.
4. Hüquqi məsələlər və məhkəmə prosesi ilə bağlı sorğular
ChatGPT və oxşar sistemlər hüquqi anlayışlar və ümumi məlumatlar barədə fikir verə bilər. Ancaq konkret hüquqi məsələlərdə bu alətlərə güvənmək doğru deyil. Hər bir hüquqi proses fərdi xarakter daşıyır və yanlış hüquqi məlumatlar insanı hüquqi məsuliyyət qarşısında qoya və ya hüquqlarını itirməsinə səbəb olar.
Maraqlıdır ki, sosial mediada istifadəçilər süni intellektin gündəlik həyatda onlara real kömək etdiyini bildirirlər. Bəziləri yazır: “Maşının problemini aylarla tapa bilmirdim, getmədiyim usta qalmadı, axırda ChatGPT vasitəsilə problemi həll etdim”, digərləri isə deyir: “MRT nəticələrinə əsasən həkimin yazdığı dərmanlarla ChatGPT-nin tövsiyələri tam üst-üstə düşdü”. Hətta “ChatGPT həyatımı dəyişdi” və ya “Kart nömrəmdən başqa hər şeyimi bilir” kimi fikirlər bu texnologiyanın gündəlik həyatda nə qədər güclü və eyni zamanda mübahisəli hala gəldiyini göstərir.
Belə olan halda ortaya sual çıxır ki, süni intellekt insanları əvəz edəcəkmi?
Sağlamlıq problemləri və müalicə tövsiyələri
Məsələ ilə bağlı Sherg.az-a danışan tibb elmləri doktoru, professor Adil Qeybulla deyib ki, ChatGPT proqramları, süni intellekt texnologiyaları və digər bu kimi sistemlər vasitəsilə hər hansı bir xəstəliyə diaqnoz qoyulması qətiyyən məqsədəuyğun deyil:
“Diaqnoz qoymaq yalnız həkimin səlahiyyətində olan bir məsələdir. Təəssüf ki, klinik şəraitdə belə bəzi xəstəliklərin səbəbini müəyyənləşdirməkdə ciddi çətinlik çəkirik. O halda, hər hansı bir proqramın bu işin öhdəsindən gələcəyini düşünmək real deyil. Əvvəlcə qeyd etmək lazımdır ki, bu cür proqramlara verilənlər bazası yerləşdirilir. Proqram həmin məlumatlar əsasında assosiativ əlaqələr quraraq xəstəliyin nə ola biləcəyi barədə yalnız təxmin irəli sürə bilir. Bu isə sadəcə olaraq həkim üçün bir yardımçı vasitə kimi istifadə olunar. Lakin bir daha vurğulamaq lazımdır ki, yalnız bu sistemlərə əsaslanaraq diaqnoz qoymaq yolverilməzdir.
Diaqnoz qoymaq üçün dünyanın hər yerində qəbul olunan dəqiq sübutlar-diaqnostik faktlar, patoqnomonik əlamətlər olmalıdır ki, onların əsasında xəstəyə konkret diaqnoz qoyulsun. Daha sonra bu diaqnoza uyğun şəkildə müalicə və profilaktik tədbirlər həyata keçirilir”.
Şəxsi məlumatlar və məxfi informasiyalar
İnformasiya texnologiyaları üzrə mühəndis-tədqiqatçı, Azərbaycan Kibertəhlükəsizlik Təşkilatları Assosiasiyasının (AKTA) eksperti Bəhruz Əliyev vurğulayıb ki, ChatGPT və digər botlara şəxsiyyət vəsiqəsi nömrəsi, bank kartı məlumatı, ünvan, şəxsi parol və s. kimi həssas məlumatların daxil edilməsi, məxfi məlumatların təhlükəsizliyinə təhdid ola bilməsi istisna deyil:
“Süni intellekt platformaları mütləq doğru nəticə vermir. Onların verdiyi bəzi cavablar səhv və ya kontekstdən kənar ola bilər. Bu da istifadəçini yanlış qərar verməyə sövq edəcək. Bəzi zəif süni intellekt həllərində platformalarda istifadəçi mesajları sistem tərəfindən qeydə alına və təhlükəsizlik tədbirləri zəif olduqda bu məlumatlar kənar şəxslərin əlinə keçə bilər. Şəxsi məlumatlarınızı (PIN, FIN, bank, mobil kod və s.) heç vaxt yazmayın. Məxfi sənədləri paylaşmayın (şəxsiyyət vəsiqəsinin şəkli, müqavilə və s.). Həssas qərarlar üçün (maliyyə, hüquq, səhiyyə və s.) yalnız rəsmi qurumlara və mütəxəssislərə müraciət edin. Süni intellektdən yalnız ümumi məlumat və texniki dəstək məqsədilə istifadə edin.
Süni intellektin təhlükəli nəticələr doğurduğunu real faktlarla da göstərmək olar.
2023-cü ilin mart ayında OpenAI, ChatGPT-də istifadəçi tarixçəsi və bəzi istifadəçilərin kredit kartı məlumatlarının səhvən görünməsi ilə bağlı problem yaşadı. Qısa müddətli təhlükəsizlik zəifliyi nəticəsində bəzi istifadəçilərin məlumatları digər istifadəçilərə görünə bildi. Kanadada təhsil sahəsində tələbənin ChatGPT istifadəsinə görə qiymətinin ləğvi hadisəsi oldu. Tələbə ChatGPT-dən istifadə edərək esse yazdı. Universitet onun yazısında süni intellektin izlərini tapdı. Tələbənin işi plagiat sayıldı və qiyməti ləğv olundu. Ona görə də süni intellekt həllərində vasitə kimi istifadə etmək olar, amma onun verdiyi məlumatları mütləq rəsmi mənbələrdən dəqiqləşdirmək lazımdır. Çünki o, adi bir insandan sadəcə yaddaşı ilə fərqlənir. Yaddaşımızın isə bizi aldatması istisna deyil”.
İnvestisiya məsləhətləri və maliyyə qərarları
İqtisadiyyat üzrə fəlsəfə doktoru, dosent Elşən Bağırzadə bildirib ki, süni intellekt proqramlarından, o cümlədən ChatGPT kimi texnologiyalardan investisiya qərarlarının hazırlanması mərhələsində, yalnız ümumi məlumat toplamaq və bazar tendensiyalarını təhlil etmək üçün istifadə etmək olar:
“Bu cür platformalar müəyyən analitik nəticələr çıxarmağa, məlumatları ümumiləşdirməyə kömək edə bilər. Lakin onların verdiyi tövsiyələr əsasında birbaşa investisiya qərarı vermək olduqca risklidir və tövsiyə olunmur. İnvestisiya məsələləri üzrə qərarlar peşəkar maliyyə məsləhətçiləri və mütəxəssislərlə məsləhətləşmələr nəticəsində verilməlidir. Dünyanın hər yerində bu sahədə mütəxəssislərin tövsiyələri əsas götürülür. ChatGPT-yə “əlimdə bu qədər vəsait var, hansı səhmləri alım?” kimi sual verildikdə belə, platforma öz cavabının investisiya tövsiyəsi kimi qəbul edilməməli olduğunu bildirir. Ona görə də insanlar belə məsələlərdə çox ehtiyatlı olmalıdırlar və ChatGPT-yə o cür suallar vermək qəbuledilməzdir. Bu da göstərir ki, bu tip texnologiyalar yalnız informasiya aləti kimi istifadə olunmalı, riskli maliyyə qərarları bu əsasda verilməməlidir.
Nəticə olaraq, süni intellekt bir kalkulyator kimi hesablamalar aparmaqda faydalı ola bilər, lakin proqnoz vermək və ya qərar qəbul etmək sahəsində tam etibarlı vasitə deyil. İnsanlar bu məsələdə diqqətli olmalı və belə texnologiyaları yalnız köməkçi vasitə kimi qiymətləndirməlidirlər. ChatGPT kimi platformalar internet məkanından istifadə edirlər. İnternetdə isə həm səhv, həm də düzgün məlumatlar yer alır. ChatGPT-nin isə həmin məlumatların düzgünlüyünü yoxlamaq imkanları məhduddur. Ona görə də ChatGPT vasitəsilə alınan hansısa yanlış məlumat əsasında investisiya qərarları insanları pis vəsiyyətə salar”.
Hüquqi məsələlər və məhkəmə prosesi ilə bağlı sorğular
Siyasi və Hüquqi Araşdırmalar Mərkəzinin (SHAM) sədri Xəyal Bəşirov isə söyləyib ki, ChatGPT bir robotdur:
“Təbii ki, bu sistem ona daxil edilən məlumatları istifadəçilərə təqdim edir. Həmin məlumatlar yalnız informasiya xarakterlidir, istiqamətləndirici və ya hüquqi məsləhət xarakterli deyil. Məsələyə cəmiyyətimizdən bir nümunə ilə yanaşsaq görərik ki, qanunvericiliyimiz digər ölkələrin qanunvericiliklərindən tamamilə fərqlənir. Məsələn, Azərbaycanda ali hüquq təhsili almış bir şəxs başqa dövlətlərdə vəkillik fəaliyyəti ilə məşğul ola bilməz. Bunun üçün həmin ölkənin qanunvericiliyini öyrənməli, müvafiq imtahan və müsabiqələrdən keçməlidir. Eyni hal əks istiqamətdə də keçərlidir. Yəni xaricdə hüquq üzrə bakalavr təhsili almış bir şəxs Azərbaycana gəlib dərhal vəkillik fəaliyyəti ilə məşğul ola bilməz. Çünki Azərbaycan qanunvericiliyini mənimsəməyib. Düzdür, dünyada ümumi qəbul olunan hüquqi nəzəri biliklər və anlayışlar mövcuddur. Amma hər bir ölkənin hüquqi sistemi özünəməxsus xüsusiyyətlərə malikdir və bu spesifik məqamlar yalnız həmin ölkənin qanunvericiliyini dərindən öyrəndikdən sonra tam mənimsənilə bilər. Bu baxımdan, ChatGPT ümumi informasiya mənbəyi kimi dəyərləndirmək olar. O, müxtəlif ölkələrin hüquqi sistemləri haqqında ümumi məlumat verə bilər. Bəli, bura daxil edilən məlumatlar arasında təxribat xarakterli və ya yanlış yönləndirici məlumatlar da ola bilər. Nəticədə insanların hüquqi problemlərinin həll yolu, bu platformaya kimin, necə və nə məqsədlə məlumat daxil etməsindən asılı vəziyyətə düşə bilər. Üstəlik, biz bu məlumatların müəllifini və onun ekspert səviyyəsini tanımırıq. Bu isə böyük risklər yaradır. Ona görə də belə bir platformadan yalnız informasiya məqsədilə istifadə etmək olar. Hüquqi problemi olan şəxslər bu vasitə ilə problemini həll etməyə çalışmamalıdır. Çünki bu yol onları səhv istiqamətə yönəldəcək. Heç bir süni intellekt aləti ölkələrin qanunvericiliyində olan fərqlilikləri tam və etibarlı şəkildə ümumiləşdirib istifadəçiyə təqdim edə bilməz. Bu baxımdan, düşünürəm ki, insanlar hüquqi məsələlərdə bu kimi platformalara etibar etməməlidirlər. Əgər bu mümkün olsaydı, o zaman dünyada hüquqşünaslara və vəkillərə ehtiyac qalmazdı. Bundan əlavə, sabah bir vətəndaş bu platformadan aldığı məlumata əsasən hərəkət edib zərər görərsə, həmin zərərə görə hüquqi məsuliyyət kimin üzərinə düşəcək? O, bu platformanı məsuliyyətə cəlb edə bilərmi? Bu da başqa bir sualdır”.
ChatGPT isə sualımıza cavab olaraq belə dedi:
“Süni intellekt alət kimi güclüdür, amma o, insan əqlini, etik dəyərləri və kontekstual qərarverməni əvəz edə bilməz. Ən təhlükəli məqam isə mənim təqdim etdiyim cavabların həmişə “inandırıcı” səslənməsidir. Bu inandırıcılıq bəzən insanlarda yanlış etimad yaradır”.
Necə deyərlər, itlə dostluq et, çomağı yerə qoyma. Süni intellektlə əməkdaşlıq faydalı ola bilər, amma hər zaman ehtiyatı əldən verməmək vacibdir.