Direksiyonu olmayan bir arabanın frenleri boşaldı. Önünde iki seçenek var: ya kaldırımda yürüyen üç kişilik bir ailenin üzerine sürecek ya da aniden yola fırlayan iki genci ezecek. Arabayı kontrol eden yapay zeka saniyeden kısa bir sürede karar vermek zorunda. Bu, bilim kurgu filmi sahnesi değil; otonom araçların ahlak çıkmazı olarak bilinen ve mühendislerin bugün kafa patlattığı en büyük sorunlardan biri. Mesele sadece teknoloji değil, mesele resmen kod satırlarıyla kimin yaşayıp kimin öleceğine karar vermek.

Otonom sürüş teknolojisi, teoride trafik kazalarını yüzde 90 oranında azaltma potansiyeline sahip. Çünkü kazaların büyük çoğunluğu insan hatasından kaynaklanıyor: dikkatsizlik, alkol, yorgunluk. Yapay zeka ise asla yorulmaz, dikkati dağılmaz. Ancak kaçınılmaz kazalar her zaman olacak. İşte o an geldiğinde, aracın etik algoritması devreye giriyor ve en zor kararı veriyor. Bu kararın temelini kim atacak? Arabayı üreten şirket mi, yazılımı kodlayan mühendis mi, yoksa devletin belirleyeceği bir komisyon mu?

Mevcut Durum: Kod Satırlarına Sıkışan Felsefe

Bugün yollarda gördüğümüz Tesla, Waymo veya Cruise gibi markaların araçları, bu tür etik kararları verebilecek altyapıya sahip. Şirketler bu konuyu pek dillendirmese de, geliştirdikleri sistemler temelde "en az zararla kurtulma" prensibine, yani faydacılık felsefesine dayanıyor. Sistem, olası senaryoları anlık olarak hesaplayarak en az sayıda insanın zarar göreceği veya en az maddi hasarın oluşacağı seçeneğe yöneliyor. Yani matematiksel olarak en "verimli" sonucu seçiyor.

Bu yaklaşım kulağa mantıklı gelse de ciddi sorunlar barındırıyor. Örneğin, yapay zeka bir tarafta kask takmayan bir motorcu, diğer tarafta kasklı bir motorcu gördüğünde, kask takmayanın hayatta kalma ihtimalini daha düşük hesaplayıp aracı onun üzerine mi sürmeli? Ya da bir yanda üç yaşlı insan, diğer yanda bir çocuk varsa, "topluma daha fazla katkı sağlama potansiyeli" gibi korkunç bir metrikle çocuğu mu kurtarmalı? Bu kararlar, SAE Seviye 4 ve Seviye 5 tam otonom sistemlerin standart hale gelmesiyle her gün verilecek rutin kararlar olacak.

Farklı Bakış Açıları: Kimin Canı Daha Değerli?

Bu ahlaki ikilemin tek bir doğru cevabı yok. MIT'nin yürüttüğü "Moral Machine" (Ahlak Makinesi) deneyi, bu çıkmazı milyonlarca insanın önüne koydu. Deney, farklı kültürel arkaplanlara sahip insanların bu tür senaryolarda ne kadar farklı kararlar verdiğini net bir şekilde gösterdi. Örneğin, bazı Doğu toplumları yaşlıları koruma eğilimindeyken, Batı toplumları genellikle daha fazla sayıda insanı veya gençleri kurtarmayı tercih ediyor. Bu durum, "evrensel bir etik kod" yazmanın neredeyse imkansız olduğunu kanıtlıyor.

Karşıt görüş ise kuralcı (deontolojik) bir yaklaşım sunuyor. Bu görüşe göre otonom bir araç, ne pahasına olursa olsun aktif olarak birine zarar verme kararı almamalı. Yani, birini kurtarmak için başka birinin üzerine direksiyon kırmamalı. Bunun yerine, kendi şeridinde kalıp fren yapmalı ve sonuç ne olursa olsun ona katlanmalı. Bu yaklaşım, yapay zekanın "tanrı rolü" oynamasını engelliyor ama daha fazla insanın hayatını kaybetmesine neden olabilecek pasif bir duruş sergiliyor. Şirketler bu iki felsefe arasında sıkışmış durumda.

Gerçek Hayat Senaryoları ve Hukuki Boşluk

Teoriyi bir kenara bırakalım, bu sorunlar çoktan yaşanmaya başladı. 2018'de Uber'in otonom test aracı, Arizona'da Elaine Herzberg adlı bir kadına çarparak ölümüne neden oldu. Kaza raporunda, aracın sisteminin kadını gördüğü ancak ne olduğunu tam olarak sınıflandıramadığı ortaya çıktı. Sistem, nesneyi önce "bilinmeyen", sonra "araç", en son "bisiklet" olarak etiketledi ve fren yapmakta çok geç kaldı. Bu olay, sorunun sadece felsefi değil, aynı zamanda sensör füzyonu ve nesne tanıma gibi teknik yetersizliklerden de kaynaklandığını gösterdi.

Kaza sonrası en büyük soru şuydu: Sorumlu kim? Arabanın içinde oturan güvenlik sürücüsü mü? Uber mi? Aracın sensörlerini üreten firma mı? Yoksa yapay zeka algoritmasını yazan ekip mi? Hukuk sistemleri bu sorulara cevap vermeye hazır değil. Bir yazılım, cinayetle veya taksirle adam öldürmeyle yargılanamaz. Bu hukuki boşluk, otonom araçların yaygınlaşmasının önündeki en büyük engellerden biri ve sigorta şirketlerinden yasa yapıcılara kadar herkesin başını ağrıtıyor.

Çözüm Kime Ait: Mühendise mi, Topluma mı?

Bu sorunun cevabını Silikon Vadisi'ndeki bir avuç mühendise veya şirket CEO'suna bırakmak, toplumsal bir intihar olur. Bu kararlar, sadece teknoloji şirketlerini değil, hepimizi ilgilendiriyor. Almanya gibi bazı ülkeler, bu konuda yasal çerçeveler oluşturmaya başladı bile. Alman Etik Komisyonu'nun hazırladığı raporda, otonom sistemlerin insan hayatını her zaman mal hasarından üstün tutması ve yaş, cinsiyet, fiziksel durum gibi özelliklere göre ayrımcılık yapmaması gerektiği gibi temel kurallar yer alıyor.

Ancak bu bile yeterli değil. Üreticilerin, araçlarındaki etik karar mekanizmalarını şeffaf bir şekilde açıklaması gerekiyor. Tüketiciler, satın aldıkları arabanın bir kaza anında kendilerini mi yoksa başkalarını mı feda etmeye programlandığını bilme hakkına sahip olmalı. Belki de gelecekte araba alırken motor gücü veya multimedya ekranı gibi özelliklerin yanında "Etik Ayar" seçeneği de göreceğiz: "Faydacı Mod" veya "Kendini Koruma Modu". Bu fikir şimdilik distopik gelse de, kodlar şu anda yazılıyor ve bu tartışmaya toplum olarak dahil olmazsak, birileri bizim yerimize çoktan karar vermiş olacak.