Sirlərinizi “ChatGPT”ə etibar etməyin - XƏBƏRDARLIQ
04:34 27.07.2025
Texnologiya
277
Texnologiya inkişaf etdikcə, getdikcə daha çox insan ChatGPT-yə sadəcə rəqəmsal bir vasitə kimi deyil, bir növ virtual psixoloq və ya sirdaş kimi baxmağa başlayır.
Lent.az-ın xarici mediaya istinadla xəbərinə görə, bununla belə, ekspertlər xəbərdarlıq edir ki, süni intellektlə şəxsi təcrübə və səmimi hekayələr paylaşmaq riskli ola bilər.
Çata daxil etdiyiniz məlumat modelləri hazırlamaq üçün istifadə edilə bilər və onun sonrakı taleyi naməlum olaraq qalır.
Bir çox insanlar süni intellektdən bu cür məqsədlər üçün istifadə etməyin mənəvi və praktiki riskləri barədə düşünmürlər. Xüsusilə narahat edən odur ki, filtrlərin və alqoritmlərin inkişafının arxasında real insan əməyi dayanır - çox vaxt aşağı ödənişli və travmatikdir.
Məsələn, Keniyada işçilər dil modellərinin performansını yaxşılaşdırmaq üçün zorakılıq, ayrı-seçkilik və qəddarlıqla əlaqəli şokedici məzmunu əl ilə emal etməyə məcbur olublar.
Oksford Universitetinin professoru Maykl Vulric qeyd edib: "ChatGPT-nin şəfqət və ya anlayış qabiliyyəti yoxdur. Onun heç bir insan təcrübəsi, ağrısı və ya sevinci yoxdur. Onun məqsədi sadəcə uyğun gələn cavab formalaşdırmaqdır".
Onun fikrincə, hər hansı bir emosional dəstəyin əsasını süni intellektdə olmayan orijinallıq, diqqət və narahatlıq təşkil edir.
Ən əhəmiyyətli təhlükələr arasında məxfi məlumatların sızması ehtimalı da var. Məsələn, 2023-cü ildə İtaliya şəxsi məlumatların emalı sahəsində pozuntulara görə öz ərazisində ChatGPT-nin fəaliyyətini müvəqqəti dayandırıb.
Tənzimləyicilər müəyyən ediblər ki, xidmət müvafiq razılıq olmadan istifadəçi dialoqlarını və ödəniş məlumatlarını toplayıb, onlardan sistemi daha da öyrətmək üçün istifadə edib.
Bundan əlavə, ChatGPT formal olaraq 13-18 yaşlı yeniyetmələr üçün valideyn razılığını tələb etsə də, praktikada yetkinlik yaşına çatmayanlar bu məhdudiyyəti asanlıqla aşırlar. Nəticə etibarı ilə, uşaqlar nəinki natamam, həm də yaş və yetkinlik səviyyəsi nəzərə alınmaqla zərərli ola biləcək cavablara çıxış əldə edirlər.
Professor Vulric vurğulayır: "Süni intellektlə söhbətə yazdığınız hər şey potensial olaraq saxlanıla, emal oluna və gələcəkdə istifadə edilə bilər. Ona görə də şəxsi məsələləri müzakirə etmək, müdiriniz haqqında şikayət etmək və ya süni intellektlə siyasi fikirlərini bölüşmək çox ağılsızlıqdır".
Massaçusets Texnologiya İnstitutu alimlərinin apardığı araşdırma təsdiqləyir ki, həllər üçün mütəmadi olaraq süni intellektə müraciət etmək insanın məlumatı müstəqil təhlil etmək və tənqidi qiymətləndirmək qabiliyyətini azalda bilər. Həyatımızı sadələşdirməklə biz vacib idrak bacarıqlarını - diqqət, yaddaş, məntiqi təfəkkür qabiliyyətini itirmək riski ilə üzləşirik.
Beləliklə, rahatlığına və geniş imkanlarına baxmayaraq, süni intellekt canlı ünsiyyətin, psixoloqun və ya etibarlı dostun əvəzedicisinə çevrilməməlidir. Şəxsi məkan, emosional təhlükəsizlik və sağlam düşüncə hər hansı bir texnologiyadan, xüsusən də süni intellekt kimi güclü texnologiyadan istifadə edərkən əsas prinsiplərdir.
Oxşar xəbərlər
Xəbər lenti
Hamısına bax
Ermənistanda hərbi xidmət müddəti azaldılıb
18:33 16.12.2025
Cənubi Qafqaz
Amazon meşələri hipertropik iqlimə keçir
18:26 16.12.2025
Ekologiya
“Qarabağ” Antalyaya yollanacaq
18:20 16.12.2025
Futbol
ABŞ kəşfiyyatı: İki ölkə İrana hərbi yardım edir
17:54 16.12.2025
Dünya
Bricit Makron qalmaqaldan sonra üzr istədi
17:48 16.12.2025
Dünya
Aqil Abbas jurnalistlərə azadlıq istədi, deputat etiraz etdi
17:42 16.12.2025
Gündəm
Parlament gənclərin sağlamlığı üçün radikal addım atdı
17:31 16.12.2025
Cəmiyyət
Milli Məclisin növbəti iclasının gündəliyi açıqlanıb
17:25 16.12.2025
Siyasət
Türkiyə lideri: Qiyamətə qədər Suriyada olacağıq
16:33 16.12.2025
Dünya
Hazırda dominant qrip Honkonq qripidir – ÜST
16:19 16.12.2025
Sağlamlıq
“Uçan Küftəçi”nin həyatı film oldu
16:04 16.12.2025
Mədəniyyət
Putin alimləri səfərbər etdi: 150 il yaşamaq istəyir
15:52 16.12.2025
Dünya
Lavrov: Rusiya Suriyada heç kimi yarı yolda qoymayıb
15:38 16.12.2025
Dünya
Tramp BBC-yə 10 milyard dollarlıq iddia qaldırdı
15:38 16.12.2025
Dünya