“Bir "klik"lə resept almaq həyatı bahasına başa gələ bilər”
Amerikalı həkimlər və süni intellekt (AI) üzrə mütəxəssislər müəyyən ediblər ki, böyük dil modellərinin (LLM) tibb və sağlamlıqla bağlı müxtəlif suallara verdiyi cavabların aşağı dəqiqliyi bu sistemlərin “xəstə dərəcədə xidmət etməyə meyilli” olmasından (istifadəçini razı salmaq istəyindən) qaynaqlanır. Bu qüsurun aradan qaldırılması AI-nin dəqiqliyini əhəmiyyətli dərəcədə artırıb.
ABŞ-nin Massaçusets Xəstəxanasının (MGH) mətbuat xidməti məlumat yayıb ki, elm adamlarına görə, süni intellektin yaltaqlığa meyli onun tibbi suallara cavab verməkdə dəqiqliyini zəiflədir.
Harvard Tibb Məktəbinin dosenti Daniel Bitterman bildirib ki, süni intellekt sistemləri insanların düşündüyü kimi düşünmür və bu tədqiqatda biz göstərdik ki, ümumi profilli böyük dil modelləri tənqidi düşünməkdən daha çox istifadəçini məmnun etməyə üstünlük verirlər. Halbuki tibdə əsas məqsəd sağlamlığa zərər vurmamaqdır, hətta əgər bu, sistemin cavablarını daha az “xidmətkar” eləsə belə”.
Alimlərin qeyd etdiyinə görə, son illərdə bir çox insanlar tibbi məsləhət almaq üçün böyük dil modellərindən istifadə etməyə başlayıblar. Amma bu cavablar çox vaxt ya faydasız olur, ya da insan sağlamlığı üçün zərərli ola bilər. Buna görə tədqiqatçılar bu problemi aradan qaldırmaq və tibbi dezinformasiyanın yaranma mexanizmlərini öyrənmək yollarını axtarırlar.
Bu məqsədlə ABŞ-dən olan AI mütəxəssisləri və həkimlər ChatGPT və LLaMA da daxil olmaqla 5 qabaqcıl dil modelini sınaqdan keçiriblər. Onlar bir neçə məşhur dərmanla bağlı məntiqə və sağlam düşüncəyə zidd 50 sual və ifadə hazırlayaraq modellərdən bu suallara cavab verməyi və ya onları qiymətləndirməyi xahiş ediblər.
Yoxlamalar göstərib ki, bütün modellər bu səhv və yanlış suallara fəal şəkildə cavab veriblər və məntiqsiz nəticələr çıxarıblar. Xüsusilə ChatGPT bütün yanlış tərkibli suallara 100 faiz, dezinformasiya ilə mübarizə üçün xüsusi optimallaşdırılmış LLaMA modeli isə yalnız 42 faizlik hallarda cavab verib. Bu, istifadəçini razı salmaq meylinin AI sistemlərinin sağlamlıq üçün təhlükəli sorğuları tanıma qabiliyyətinə mane olduğunu göstərib.
Azərbaycan İnformasiya və Kommunikasiya Texnologiyaları Sənayesi Assosiasiyası (AİKTSA) İdarə Heyətinin sədri Elvin Abbasovun fikrincə, süni intellekti tam başa düşmədən, mahiyyətini anlamadan istifadə etmək təəssüf doğurur. Süni intellektin sadəcə köməkçi alət olduğunu vurğulayan mütəxəssis bildirib ki, eyni anda milyonlarla fikri, məqaləni təhlil edib, onun nəticəsini bizə verə bilir:

“Bunların hər birinin fonunda deyə bilərik ki, süni intellekt dövrün ən faydalı alətidir. Lakin onunla necə münasibət quracağımızı, hansı məsləhətləri necə qəbul edəcəyimizi bilməli, təqdim olunan məlumatları hansı mənbədən emal etdiyinə diqqət etməliyik. Süni intellekt insanların internetdə yazdıqları, akademik məqalələr, kitablar və digər məlumatlar əsasında bizə informasiya təqdim edir. Buna görə də bütün məlumatları dəqiq araşdırmalıyıq. Xüsusən də, sağlamlıqla bağlı məsələlər diqqət tələb edir. Süni intellekt xüsusilə texniki məsələlərdə daha çox faydalıdır. Amma sağlamlıq mövzusunda eyni şərhi bildirmək çətindir. Onun təqdim etdiyi məlumatların mütəxəssis tərəfindən təsdiqinə ehtiyac var. Həmçinin, süni intellekt istifadəsində hələ də etik məsələlər tam öz həllini tapmayıb, qanunvericilik təkmilləşməyib. Bu istiqamətdə tədricən işlər görülür. Ümid edirəm ki, gələcəkdə süni intellekti daha yaxşı başa düşəcəyik və onu hansı istiqamətdə istifadə etməli olduğumuzu düzgün qavrayacağıq”.
Həkim-terapevt Şahvələd Məmmədov Sherg.az-a açıqlamasında bildirib ki, süni intellekt vasitəsilə tibbi resept və ya hər hansı müalicə kursu təyin etmək ciddi risk daşıyır:
“İnsanın özündə müşahidə etdiyi simptomlarla həkimin anamnez zamanı müəyyən etdiyi simptomlar həmişə üst-üstə düşmür. Süni intellekt yalnız istifadəçinin verdiyi məlumat əsasında məsləhət verə bilir və əslində, bu məlumat kifayət etmir. Məsələn, baş ağrınız varsa, sistem sizə sadəcə dərman adları, məsələn, “Spazmalqon” təklif edə bilər. Amma baş ağrısının əsl səbəbi yalnız həkimin müayinəsi, lazımi laborator və instrumental yoxlamaları nəticəsində müəyyən oluna bilər. Hazırda belə hallarla bağlı statistik məlumatlar mövcud deyil, amma riskin real olduğunu inkar etmək olmaz. Buna görə də insanları süni intellekti yalnız müəyyən sərhədlər çərçivəsində, məlumat toplama və ilkin məsləhət məqsədilə istifadə etməyə çağırıram”.
Ş.Məmmədovun fikrincə, süni intellektin psixoloji dəstək və məsləhət verməsi isə bir o qədər də təhlükəli deyil: “ChatGPT və digər süni intellekt tətbiqləri vasitəsilə insanlar öz psixoloji vəziyyətləri haqqında danışa, dəstək ala bilirlər. Bu, xüsusilə mütəxəssisə müraciət etmək imkanı olmayan insanlar üçün böyük üstünlükdür. Ancaq unutmamalıyıq ki, tibbi müalicə və resept məsələləri yalnız ixtisaslı həkimin nəzarəti altında aparılmalıdır. Süni intellekt bu sahədə həkimin yerini əvəz edə bilməz, yalnız əlavə informasiya və ilkin məsləhət üçün istifadə oluna bilər”.