ABŞ və İsrailin İran hücumlarında istifadə etdiyi süni intellekt beynəlxalq hüquqda mübahisə yaradıb

ABŞ və İsrailin İran əməliyyatlarında süni intellektdən istifadə etməsi beynəlxalq hüquq mütəxəssisləri arasında müzakirələrə səbəb olub. Ekspertlər insan nəzarətinin azalmasının mülki itkilər riskini artırdığını bildirir.

40

ABŞ və İsrailin İran ərazisində həyata keçirdiyi hücumlarda süni intellekt texnologiyalarından istifadə etməsi beynəlxalq hüquq və insan haqları mühitində ciddi müzakirələrə səbəb olub. Mütəxəssislər bildirirlər ki, bu texnologiyalar hücumların planlaşdırılması və hədəflərin müəyyənləşdirilməsi prosesini sürətləndirsə də, insan nəzarətinin azalması mülki şəxslərin qorunması ilə bağlı riskləri artırır.

Məlumata görə, ABŞ İran ərazisində hücumların planlaşdırılması və kəşfiyyat məlumatlarının analizində ABŞ-da fəaliyyət göstərən texnologiya şirkəti “Anthropic” tərəfindən hazırlanmış “Claude” adlı süni intellekt modelindən istifadə edib. Bu sistem pilotsuz uçuş aparatlarının görüntüləri, rabitə dinləmələri və insan kəşfiyyatı kimi müxtəlif mənbələrdən toplanan böyük həcmdə məlumatı sürətlə analiz edərək potensial hədəfləri müəyyənləşdirə bilir.

Süni intellekt əsaslı sistemlər hərbi əməliyyatlarda “öldürmə zənciri” kimi tanınan prosesin — yəni hədəfin müəyyənləşdirilməsi, hüquqi qiymətləndirilməsi və hücum qərarının verilməsi mərhələlərinin — xeyli sürətlənməsinə səbəb olur.

Kanadanın Toronto şəhərində yerləşən York Universitetinin beynəlxalq hüquq professoru Heidi Metyus bildirib ki, süni intellektin hərbi əməliyyatlarda hədəf seçimi prosesində geniş istifadə olunması beynəlxalq humanitar hüquq baxımından uzun müddətdir narahatlıq doğurur.

Onun sözlərinə görə, beynəlxalq humanitar hüquqa əsasən münaqişə tərəfləri mülki şəxslərlə döyüşən qüvvələr arasında aydın fərq qoymalı, hədəfin düzgünlüyünü yoxlamalı və hücumdan əvvəl mülki şəxslərə ərazini tərk etmək üçün kifayət qədər vaxt verməlidirlər.

Metyus qeyd edib ki, süni intellekt sistemləri bu proseslərdə insan rolunu tam aradan qaldırmasa da, onu ciddi şəkildə azaldır və hədəfin müəyyənləşdirilməsi ilə hücum arasındakı vaxtı xeyli qısaldır.

Ekspertin sözlərinə görə, bu texnologiya hərbi baxımdan üstünlük yaratsa da, qərarvermə prosesində insan faktorunun azalması hədəfin doğrulanması və hücumun proporsionallığı kimi hüquqi tələblərə əməl olunmasını çətinləşdirə bilər.

Metyus İranın Minab şəhərində qız ibtidai məktəbinə edilən hücumda süni intellekt sistemlərinin hədəfləmə prosesində rol oynamış ola biləcəyi ehtimalının araşdırılmasının vacib olduğunu bildirib. Həmin hücum nəticəsində 150-dən çox insanın öldüyü, 100-dən çox insanın isə yaralandığı bildirilir.

Ekspert həmçinin süni intellekt əsaslı hədəfləmə sistemlərinin səhv identifikasiya riskini artırdığını qeyd edib. Bu cür sistemlərin bəzən mülki obyektləri, məsələn xəstəxanaları və ya məktəbləri yanlış şəkildə hərbi hədəf kimi müəyyən edə biləcəyi vurğulanır.

Metyus .3

əlavə edib ki, İsrail ordusu daha əvvəl Qəzzada hədəf seçimi və prioritetləşdirmə prosesində “Lavender”“Where’s Daddy” adlı süni intellekt sistemlərindən geniş istifadə edib. Bu sistemlər şübhəli şəxslərin müəyyənləşdirilməsi və onların evlərinə daxil olduqları anda hədəfə alınması üçün nəzərdə tutulub.

Onun sözlərinə görə, bu cür tətbiqlər çox vaxt ailə üzvləri və digər mülki şəxslərin də zərər görməsinə səbəb olan “ikinci dərəcəli ziyan” riskini artırır və bu, beynəlxalq humanitar hüquq baxımından ciddi problemlər yaradır.

Metyus eyni zamanda süni intellektin yalnız hərbi əməliyyatlarda deyil, həm də dezinformasiya və saxta məlumatların yayılmasında istifadə oluna biləcəyini vurğulayıb. O bildirib ki, süni intellekt vasitəsilə yaradılan yanlış məlumatlar ictimaiyyətin hadisələri düzgün qiymətləndirməsini çətinləşdirə və müharibə cinayətləri ilə bağlı araşdırmalara mənfi təsir göstərə bilər.

Ekspertin fikrincə, süni intellektin həyat və ölüm qərarlarının verildiyi hərbi əməliyyatlarda istifadəsi ilə bağlı daha geniş beynəlxalq hüquqi və siyasi müzakirələrə ehtiyac var.

Mart 2026
BE ÇA Ç CA C Ş B
 1
2345678
9101112131415
16171819202122
23242526272829
3031  
24 mart 2026