KRİTİK ALTYAPILARDA YAPAY ZEKÂ VE SİBER GÜVENLİK AKIL, ETİK VE GÜVENLİK ÜÇGENİNDE İNSANLIĞIN SINAVI

21.yüzyılın savaşları artık görünmeyen cephelerde yaşanıyor. Tankların yerini algoritmalar, kalelerin yerini veri merkezleri, casusların yerini ise siber ajanlar aldı. Enerji santralleri, hastaneler, su şebekeleri, ulaşım ve iletişim ağları gibi “kritik altyapılar”, bu görünmez savaşın stratejik hedefleri hâline geldi. Bu yapıların çökmesi yalnızca elektrik kesintisine yol açmaz; toplumun damarlarındaki veri, enerji ve güvenlik akışı da durur.

Bu sistemlerin savunusu giderek insanların kontrolünden çıkıp Yapay Zekâ (YZ) destekli sistemlere devrediliyor. Algoritmalar tehditleri algılıyor, analiz ediyor ve müdahale ediyor. Ancak burada teknik sorular kadar derin etik sorular da var: Bu kararları kim veriyor? Kararların değer temeli nedir? Bu kararlar adil midir?

Bu yazı, Yapay Zekâ’nın kritik altyapılardaki rolünü yalnızca teknolojik bir gelişme olarak değil; aynı zamanda insanlık, etik ve özgürlük bağlamında ele alan bir sorgulama olarak kaleme alınmıştır.

Dijital Damarlar: Kritik Altyapıların Felsefesi

Kritik altyapılar, medeniyetin dijital damarlarıdır. Su, enerji, iletişim ve ulaşım sistemleri kesildiğinde, yalnızca fiziksel işlevler değil; hukuk devleti, sağlık hakkı, ekonomik yaşam ve bireysel özgürlükler de felce uğrar. Modern insan bu sistemlere sorgusuz sualsiz bir güvenle bağlıdır.

Bu noktada, Michel Serres’in “parazit” metaforu akla gelir. Serres’e göre, sistemleri ayakta tutan şey yalnızca akış değil, bu akışların kesintiye uğramaması için alınan önlemlerdir. Kritik altyapılar, hem yaşamı mümkün kılan hem de yaşamın kırılganlığını gösteren bu parazit yapının merkezindedir.

Yapay Zekâ Sadece Bir Araç mı, Yeni Bir Fail mi?

Teknoloji, uzun yüzyıllar boyunca insanın niyetini gerçekleştiren bir araç olarak görüldü. Ancak Yapay Zekâ’nın otonom karar alma kapasitesi bu çizgiyi belirsizleştirdi. Otonom sistemler artık tehditleri yalnızca algılamıyor, aynı zamanda onlara karşı önceliklendirme yaparak müdahale ediyor.

Bu noktada Aristoteles’in “phronesis” (pratik bilgelik) kavramı gündeme gelir. Aristoteles’e göre etik karar, yalnızca bilgiyle değil, bağlamı anlayan bir yargı gücüyle verilir. Oysa Yapay Zekâ sistemleri veriye dayanır, ama hikmetten yoksundur.

Bir enerji santraline yönelik saldırıda, yapay zekâ belirli bölümlerin elektriğini keserek sistemi koruyabilir. Ancak bu kararın etik sorumluluğu kimdedir? Kodlayan mühendis mi, algoritmaya yetki veren yasa koyucu mu, yoksa yazılımın kendisi mi?

Gözetimin Dijital Leviathan’ı

Thomas Hobbes’un meşhur Leviathan’ı, bireylerin güvenlik adına özgürlüklerinden feragat ettiği mutlak egemendir. Günümüzde bu egemenliğin yeni adı, sürekli izleyen ve değerlendiren Yapay Zekâ sistemleri olabilir.

Yapay Zekâ destekli siber güvenlik yazılımları artık yalnızca dış tehditleri değil, içerideki anormallikleri de gözlemler: kullanıcı davranışları, yazışmalar, dosya hareketleri… Foucault’nun panoptikon kavramı burada dijital bedenini bulur. İnsanlar, gözlendiğini bilmeden ama sonuçlarını hissederek davranışlarını şekillendirir. Ve artık gözleyen bir gardiyan değil, bir algoritmadır.

Burada şu soru önemlidir: Güvenlik adına ne kadar özgürlükten vazgeçmeye razıyız?

Etik Kodlama Mümkün mü?

Yapay Zeka’nın etik kararlar vermesi, veri temelli bir muhakemenin ötesinde, değer temelli bir yargı gücünü gerektirir. Bir hastanede, kimin önce tedavi edileceğine karar vermek, yalnızca algoritmik verimlilik değil; aynı zamanda ahlaki bir tercihtir.

Yapay zekâ bu kararı neye göre verir? Yaşama olasılığına mı? Gençliğe mi? Sosyal katkıya mı? Yoksa yalnızca sistemin yükünü azaltmaya mı çalışır? Bu noktada algoritmik önyargı kavramı belirir. Yapay zekâ, eğitim aldığı verilerdeki adaletsizlikleri yeniden üretir.

Adalet kavramının Platoncu tanımı olan “herkese hak ettiğini vermek”, Yapay Zeka sistemlerinde nasıl uygulanabilir? Daha da önemlisi: Hak etmenin ölçüsü neye göre belirlenir?

 Karar Anında İnsan Nerede?

Kritik altyapılarda kriz anları saniyelerle sınırlıdır. İnsan refleksleri çoğu zaman yetersizdir. YZ sistemleri hızla devreye girer, ancak bu hız etik muhakemenin derinliğini dışlar.

Örneğin bir baraj sisteminde Yapay Zekâ, siber saldırı sonrası ani tahliye kararı alabilir. Bu karar birçok hayatı kurtarabilir, ama bazılarını da riske atabilir. Burada Kant devreye girer. Kant’a göre insan, hiçbir koşulda yalnızca bir araç olarak kullanılamaz. Fakat Yapay Zekâ, kararlarını faydacılık temelinde, “en fazla sayıda insanı kurtarma”ilkesine göre alır. Kantçı etik ile faydacı mantık arasındaki bu çatışma, makinelerin etik sistemlerinin sınırlılığını gösterir.

 Şeffaflık ve Hesap Verebilirlik Sorunu

Yapay Zekâ’nın karar alma süreçleri genellikle bir kara kutudur. Kararın neden alındığı, hangi veriye dayandığı, hangi etik ilkeye göre şekillendiği belirsizdir. Oysa etik bir sistem, yalnızca iyi sonuç üretmekle değil, bu sonuçları gerekçelendirmekle yükümlüdür.

Bu bağlamda Habermas’ın “iletişimsel eylem” teorisi önem kazanır. Habermas’a göre etik karar, ancak rasyonel ve herkesin katılımına açık bir tartışma ortamında alınabilir. Yapay Zekâ sistemlerinde böyle bir kamusal muhakeme zemini var mıdır?

Algoritmik Adaletsizlik ve Dijital Eşitsizlik

Yapay zekânın eğitildiği veri setleri, çoğunlukla geçmişe ait sistemsel önyargıları taşır. Bu da toplumsal eşitsizliklerin dijital ortama taşınmasına neden olur. Örneğin, düşük gelirli bölgelerde yeterli veri toplanmadığında, Yapay Zekâsistemleri bu bölgeleri “önemsiz” kabul edebilir.

Bu durum, Rawls’ un adalet teorisindeki “fırsat eşitliği” ilkesine doğrudan aykırıdır. Yapay Zeka’nın kamusal hizmetlerde kullanımı, dezavantajlı grupların yeniden dezavantajlı hâle gelmesine neden oluyorsa, o sistemin etik meşruiyeti sorgulanmalıdır.

İnsan Merkezli Yapay Zekâ Mümkün mü?

Günümüzde “Human-Centered AI” ya da “Ethical AI” gibi kavramlar ön plana çıkıyor. Ancak bu ifadeler sadece pazarlama sloganı olmamalı. İnsan merkezli tasarım, yalnızca kullanıcı dostu arayüz değil; aynı zamanda karar alma süreçlerinde insan onurunu gözeten bir sistem anlamına gelmelidir.

Spinoza’nın “İnsanı anlamak, sistemi anlamaktır” sözü burada önemlidir. Eğer yapay zekâ sistemleri insan davranışlarını model alıyorsa, bu davranışların etik, duygusal ve tarihsel bağlamlarını da anlamak zorundadır. Aksi takdirde insanı değil, yalnızca istatistiği taklit eder.

Psikolojik ve Toplumsal Güven

Teknolojiye duyulan güven, yalnızca teknik yeterlilik değil, aynı zamanda toplumsal rıza ile ilgilidir. Yapay Zeka’ya verilen her yetki, toplumun bilinçli ya da bilinçsizce verdiği bir onaya dayanır. Ancak bu onay, demokratik denetime ve şeffaflığa dayanmıyorsa, rıza değil, teslimiyet olur.

Hannah Arendt’in “banal kötülük” kavramı burada bir uyarıdır: Kötülük, çoğu zaman doğrudan niyetle değil, sorgusuzca uygulanan bürokratik kurallarla gerçekleşir. Yapay Zekâ sistemleri, etik değerlendirme olmaksızın karar veriyorsa, bu sistemler de potansiyel olarak banal kötülük üretebilir.

Uluslararası Normlar ve Hukuki Zemin

Avrupa Birliği’nin “AI Act” gibi yasal düzenlemeleri, Yapay Zeka’nın ne yapabileceğinden çok ne yapmaması gerektiğini belirlemeyi hedefler. Çünkü yapay zekâ destekli sistemlerin yalnızca ulusal değil, küresel sonuçları vardır.

Örneğin bir nükleer santraldeki Yapay Zekâ sisteminin başarısızlığı sadece o ülkeyi değil, komşu coğrafyaları da etkiler. Bu nedenle Birleşmiş Milletler, OECD, NATO gibi yapılar, Yapay Zekâ sistemlerinin şeffaflığı ve denetimi için uluslararası etik ilkeler belirlemelidir. Ancak bu alandaki hukuki boşluklar, teknolojik gelişmelerin gerisinde kalmıştır.

Gelecek: Yıkım mı, Yeniden İnşa mı?

Yapay zekânın kritik altyapılarda kullanımı iki olasılığı da barındırır:

            1. Otokratik Teknoloji Rejimi: Güvenlik kaygısı öne çıkar ve Yapay Zekâ, sürekli izleyen, yöneten bir Leviathan’a dönüşür. Bireyler, sistemlerin karar verdiği bir dünyada edilgen nesnelere indirgenir.

            2. Etik ve Katılımcı Teknoloji Rejimi: Kararlar, şeffaf, hesap verebilir ve toplumun tüm kesimlerinin katılımına açık bir sistemle alınır. Yapay Zekâ, insan aklını destekleyen, onu ikame etmeyen bir ortak olur.

Bu tercih bir teknoloji tercihi değil, bir medeniyet tercihi olacaktır.

Otomatikleşmiş Vicdan Olur mu?

Sonuç olarak; Yapay Zekâ, mantığı dışsallaştırabilir ama vicdanı hayır. Bir saldırıyı engelleyebilir ama bir çocuğun çığlığını duyamaz. Heidegger’in dediği gibi, “teknolojinin özü teknolojik değildir”. Mesele, Yapay Zeka’nın ne yaptığı değil; bizim Yapay Zekâ ile ne yaptığımızdır.

Eğer yeni çağın Leviathan’ını yaratıyorsak, onun sınırlarını etik çizmeli, meşruiyetini insanlık değerlerinden almasını sağlamalıyız. Aksi hâlde elimizde kalan, sadece otomatikleşmiş güvenlik değil; otomatikleşmiş bir insanlık krizi olacaktır.