Yapay zeka ile nükleer silah birbirine ne kadar benziyor?
10 Ağustos 2025

Herhangi bir atomu alıyorsunuz, ona dışarıdan nötron yağdırmaya başlıyorsunuz. Bir süre sonra o atomu bir arada tutan gücü yeniyorsunuz  ve atom kendi nötronlarını kaybetmeye başlıyor. Yeterince kaybettiğinde de başka bir atoma dönüşüyor.

Bilim insanları, “atomu bölmek” denen bu olayı ilk olarak 1930’larda başardılar. Bunu başardıklarında hemen atom bölünürken ortaya çıkan enerjiyi de hesapladılar ve gözlerine inanamadılar.

Bu muazzam enerji, eğer sürdürülebilir bir yöntem bulunursa, dünyanın enerji sorununa çözüm olabilirdi. “Sürdürülebilir yöntem”den kasıt, başlangıçta dışarıdan nötron verilse bile reaksiyon bir başladı mı, bunun artık kendi kendine devam etmesinin sağlanmasıydı. Buna “zincirleme reaksiyon” diyoruz.

Acaba zincirleme reaksiyonu sağlayacak bir atom var mıydı? Türlü çeşitli denemelerden sonra uranyumun uygun atom olduğu kesinleşti. İlk zincirleme reaksiyonu, artık ABD’ye göç etmiş olan İtalyan fizikçi Enrico Fermi gerçekleştirdi.

Ama o sırada atomu bölme çalışmaları çoktan “Dünyanın enerji sorununu çözmek”ten başka bir şeye dönüşmüştü: Atom bombası yapmak.

Fizikçilerin hiç değilse bir bölümü, ortaya çıkardıkları bu yeni doğa gücünün savaş amacıyla kullanılmasından son derece endişeliydi. Bu endişelerine rağmen gece gündüz çalışıyorlardı, çünkü bir yandan da Nazi Almanyası aynı bombayı yapmak için çalışıyordu. Üstelik o işlerin başında herkesin büyük saygı duyduğu bir fizikçi, Werner Heisenberg vardı.

“Kötülerin eline geçeceğine iyilerin eline geçsin” düşüncesi, atom bombası bağlamında böyle ortaya çıktı. Almanya gibi Japonya da atom bombası fikrine gelmişti ve çalışıyordu. Ama ne Almanya ne Japonya bu işe ABD’nin ayırdığı muazzam kaynağı ayırdı, savaş sonunda anlaşıldı ki Almanya atom bombasından çok uzaktaydı ama bir nükleer enerji santralı yapmayı başarmıştı, Japonya’nın çalışmaları ise sadece teoride kalmıştı.

Geçen hafta burada yapay zeka mühendislerin bir nevi dini inancı olan ve “Effective alturism” (Etkili Özgecilik) olarak adlandırılan felsefi inancı anlatmaya çalışırken konu buraya geldi.

Yapay zekayı ortaya çıkaran mühendisler, atom bombasını yapan fizikçilerden farklı olarak, doğada olmayan bir gücü ortaya çıkardıklarını düşünüyorlar. Bu güç, giderek hızlanan bir oranda büyüyor ve “Kötülerin eline geçeceğine önce biz iyiler yapalım” anlayışı işte o “Etkili Özgecilik”i ortaya çıkarıyor veya ona zemin açıyor.

Sam Altman, hiç kuşku yok, yapay zeka konusunda dünyada adı en çok bilinen isim. O bir mühendis değil, kod yazmayı bildiği de şüpheli ama son 10 yıldır dünyanın en önemli yapay zeka şirketlerinden biri olan OpenAI’ın kurucusu ve bir numaralı yöneticisi.

Geçenlerde Altman’ın bir konferansta kendisine sorulan bir soruya verdiği yanıtı gösteren bir videoya denk geldim. Videoyu aşağıya da alıyorum zaten, Altman’a yapay zekanın yarattığı tehlikeler soruluyor, o da üç temel tehlike kategorisinden söz ediyor. 

Birinci tehlike, yeterince kuvvetli bir yapay zekayı önce kötülerin başarması. Burada kastettiği Çin olsa gerek. Kötülerin ellerindeki bu güçlü araçla “iyi”lere hayatı zehir etmesinden, borsayı çökertip elektrikleri kesmesinden vs söz ediyor.

İkinci tehlike insanların yapay zeka üzerindeki kontrollarını kaybetmesi. Yani bu sistemlerin çok fazla akıllı hale gelmesi ve insanların hem onsuz yapamaz hem de onu kontrol da edemez olması. Kendi kodunu kendi yazan, kendi kendini geliştiren bir yapay zekadan söz ediyor. Siz onun fişini çekmeye kalktığınızda kendini korutan ve size izin vermeyen yapay zekadan.

Üçüncü tehlike, insanların ağır ağır ve farkında bile olmadan bütün kontrolu kendi elleriyle yapay zekaya teslim etmesi. Artık zahmet edip düşünmemesi, zahmet edip yeni bilim geliştirmemesi, her şeyi yapay zekaya terk etmesi.

Yapay zekanın getirdiği tehlikeyle atom bombasının getirdiği tehlike arasında bir önemli fark var: Atom bombası yoluyla dünyanın tamamen yok edilmesi tehlikesi bir anda ortaya çıktı. Yapay zekanın getirdiği tehlike ise yavaş yavaş büyüyor, öyle tayin edici bir an hiçbir zaman olmayacak, sadece bir gün geri dönülemez bir noktaya ulaşıldığının farkına varılacak.

Sam Altman’ın dikkat çektiği bu üç tehdidin üçünün birden, en azından ikisinin aynı anda yaşanması olasılığı oldukça güçlü. Hatta bu iki ihtimal şu anda bile yaşanıyor.

Geçen hafta da örnek verdim, bir takım “kötü” aktörlerin elinde yapay zeka araçları var ve bunları iyilik için değil kötülük için kullanıyorlar. Hayatın bazı alanlarını çoktan yapay zekaya terk etmeye, o alanlarda düşünmemeye başladık bile. Yani kendi yaratıcılığımızı kendi elimizle köreltme işlemi de başladı.

Ancak bu felaket senaryoları her ne kadar ciddi ilerleme gösteriyor olsalar da, arkalarındaki bir temel varsayıma dayandıkları için o kadar da kuvvetli değiller.

Nedir o varsayım? “Bir gün ortaya insan zekasını alt edecek, her alanda insandan daha akıllı ve bilgili bir yapay zeka çıkacağı” varsayımı.

AGI (Artificial general intelligence – Yapay genel zeka) adı verilen bu durumun gerçekleşmesinin fizik biliminden alınan bir deyimle, “singularity-tekillik” deyimiyle adlandırıldığını da sık sık görüyoruz.

Peki insanlık AGI’ı başarabilir mi? Yapay zekayla uğraşan mühendislerin ezici bir çoğunluğu “Evet” diyor, “Sandığınızdan daha yakın bir zamanda bu başarılacak.”

Ama bu konuya şüpheyle yaklaşanlar da var.

Gelin haftaya bunu konuşalım: Yapay zeka sahiden insan zekasını geçebilir mi?

ÇOK OKUNANLAR