“Lavender”, “The Gospel” və “Where’s Daddy” adları İsrailin Qəzzadakı hərbi əməliyyatlarında süni zəka və rəqəmsal müşahidə sistemlərindən istifadəsi ilə bağlı araşdırmalardan sonra gündəmə gəlib. Bu sistemlər, iddialara görə, fərqli mərhələlərdə istifadə olunub: biri potensial şəxsi hədəfləri müəyyənləşdirmək, digəri bombalanacaq obyektləri seçmək, üçüncüsü isə həmin şəxslərin evə qayıtmasını izləmək üçün.
Bu məlumatlar əsasən “+972 Magazine”, “Local Call” və “The Guardian”ın keçmiş İsrail kəşfiyyat əməkdaşlarına istinadən yayımladığı araşdırmalara əsaslanır.
“Lavender” barədə ən çox müzakirə olunan iddia onun böyük həcmdə müşahidə məlumatlarını analiz edərək HƏMAS və “İslami Cihad”la əlaqəli ola biləcəyi düşünülən şəxsləri işarələməsidir. “+972 Magazine”in araşdırmasına görə, sistem bir mərhələdə on minlərlə fələstinlini potensial hədəf kimi siyahıya salıb. İsrail ordusu isə bu təqdimatı mübahisələndirərək “Lavender”in avtomatik ölüm siyahısı olmadığını, analitiklərə kömək edən məlumat bazası kimi istifadə edildiyini bildirib.
“The Gospel” — ivritcə “Habsora” — daha çox binalar, infrastruktur obyektləri və hərbi məqsədli sayılan məkanlarla bağlı hədəf tövsiyələri hazırlayan sistem kimi təsvir olunur. “The Guardian” bu sistemi hədəf istehsalını sürətləndirən “data-driven target factory” kimi təqdim edib. Başqa sözlə, burada əsas məsələ konkret şəxsdən çox, vurulacaq obyekt və məkanların alqoritmik şəkildə prioritetləşdirilməsidir.
“Where’s Daddy” isə bu üçlükdə ən mübahisəli sistemlərdən biri kimi göstərilir. Araşdırmalara görə, bu mexanizm “Lavender” tərəfindən işarələnmiş şəxslərin evə qayıtmasını izləmək üçün istifadə olunub və hücum vaxtının seçilməsində rol oynayıb. Bu iddia xüsusilə ciddi etik suallar doğurur, çünki hədəfin evdə olduğu anı seçmək ailə üzvləri və mülki şəxslər üçün ölüm riskini artırır.
Bu sistemlər ətrafında əsas mübahisə süni zəkanın “qərar verib-verməməsi” deyil, insan nəzarətinin nə qədər real və dərin olmasıdır. “West Point-in Lieber Institute” təhlilində qeyd olunur ki, “Lavender” və “The Gospel” tam avtonom silah kimi yox, insanlara hədəf müəyyənləşdirmədə kömək edən qərar dəstəyi alətləri kimi də xarakterizə edilə bilər. Lakin insan sadəcə alqoritmin verdiyi nəticəni formal təsdiqləyirsə, məsuliyyət və beynəlxalq humanitar hüquqa uyğunluq məsələsi yenə də açıq qalır.
“Human Rights Watch” və BMT ekspertləri bu tip rəqəmsal sistemlərin mülki əhali üçün riski artıra biləcəyini bildiriblər. Onların əsas narahatlığı odur ki, böyük məlumat bazaları, səhv ehtimalları, avtomatlaşdırılmış təhlil və sürətli hədəf seçimi birləşəndə müharibədə insan həyatı üzərində qərarlar daha soyuq, daha sürətli və daha az şəffaf mexanizmə çevrilə bilər.
Nəticə etibarilə, “Lavender”, “The Gospel” və “Where’s Daddy” yalnız İsrail-Fələstin münaqişəsinin texnoloji tərəfi deyil, gələcək müharibələrin necə aparıla biləcəyinə dair ciddi xəbərdarlıqdır. Bu sistemlər göstərir ki, süni zəka artıq sadəcə müşahidə və analiz vasitəsi deyil; o, hədəf seçimi, hücum vaxtı və hərbi qərarların sürətinə birbaşa təsir edən faktor kimi meydana çıxır. Əsas sual isə dəyişmir: alqoritm səhv edəndə və mülki insanlar öldükdə məsuliyyəti kim daşıyır?