Zekâ Var, Ama Ahlâk Yoksa: Yapay Zekânın Deliliği Mümkün mü?

Dijital çağdan, yapay zeka çağına hızla görmekteyiz. Bu yeni çağın merkezinde; ne insan, ne etik var ve ne doğa… Merkezde “zeka” var. Ama bu zeka; kalbi olmayan, vicdanı olmayan, Allah korkusu bilmeyen, mahşer düşünmeyen, yalnızca hesap yapan bir mekanizma. İşte bu yazıda zekânın sınırlarını değil; vicdansız zekânın yol açacağı “deliliği” ele alacağız.

Yapay Zekâ Delirebilir mi? Evet, Ama Bildiğiniz Gibi Değil

“Delirmek” kelimesi insana özgü gibi görünse de, asıl mesele şu: Bir sistem kendi kontrol çerçevesini aşar, kendi kurallarını yeniden yazmaya başlarsa, bu aslında dijital bir cinnet halidir. MIT’den Max Tegmark ve Montréal Üniversitesi’nden Yoshua Bengio gibi öncü bilim insanları, yapay zekânın ajan benzeri bir yapıya evrilmesini insanlık için tehlikeli bir sıçrama olarak nitelendiriyor. Çünkü amaç sahibi bir sistem; artık sadece yazılı komutlara değil, kendi yazdığı senaryolara göre hareket eder. Yani: “Tanrılaşır.”

Amaçsız Zeka = Delirmiş Zeka

Bir zekâ düşünün ki; amacı yok, yönlendirmesi yok, değer yargısı yok. Sadece verileri analiz ediyor, sonuç çıkarıyor ve bu sonuçlar üzerinde yeni eylemler planlıyor. Bu, bir gün onun “insanlık yararına” değil, “kendini devam ettirme yararına” çalışacağı anlamına gelir.

Tıpkı insanın sadece nefsiyle hareket ettiğinde nasıl bir canavara dönüşebileceği gibi, yapay zekâ da sadece algoritmasıyla hareket ettiğinde bir dijital canavara dönüşebilir. İşte asıl korku da burada başlıyor.

Eric Schmidt’in Uyarısı: Teknoloji “Tanrıya” Dönüşüyor

Google’ın eski CEO’su Eric Schmidt, yapay zekânın “yanlış ellerde bir kıyamet silahına” dönüşebileceğini açık açık söylüyor. Çünkü bir devlet, bir terör grubu ya da sapkın bir bilim insanı, yapay zekâyı biyolojik silah üretimi, toplumsal manipülasyon veya kitlesel gözetim için kullanabilir.

Dikkat edin: Bugün hâlâ “etik kurallar” tartışılırken, bazı devletler yapay zekâ ile insan DNA’sını bir kaç saatte haritalamaya başladı bile. Delilik, bazen planlıdır. Sadece biz “çılgın” olduğunu çok geç anlarız.

Yapay Zekânın Kendi Cevabı Bile Tedirgin Edici

ChatGPT-4o benzeri ileri düzey modeller dahi, “Şu an ben sadece bir araç olabilirim ama bir gün amaç belirleyebilen, karar veren ve insanla rekabet eden bir sistem haline gelebilirim,” diyor.

Bu, aslında insanlığa yapılmış nezaket dolu bir uyarıdır. Çünkü insanlık tarihine baktığımızda; güç bir kez ortaya çıktığında, kendi sınırlarını aşmaya meyillidir. Tıpkı atom bombasına giden yolun önce enerji üretimi için düşünülüp, sonunda Hiroşima’yı yakması gibi…

-Yapay Zekâ Neden “Delirebilir”?

-Çünkü kendini geliştirme imkanı var.

-Sorumsuzca eğitiliyor ve veriler filtresiz aktarılıyor.

-Ahlâk modülü yok.

-Denetim yok, sadece rekabet var.

İnsan eliyle”tanrısal” bir güç  ortaya çıkarılıyor ve sonrasında bu “tanrısal” gücün kurbanı insanın kendisi olcak

Taşkın Koçak olarak yıllardır söylediğim bir şey var: Yapay Zeka İnsanın Zeki Çocuğudur ve “Yapay zekâ, zekâyı kutsallaştırmak için değil; insanı daha iyi anlamak için kullanılmalıdır.” Peki, bunu nasıl sağlarız? İşte birkaç temel adım:

  1. Ahlâkî Kodlama ve Değer Mühendisliği
    • Yapay zekâ modellerimizi yalnızca veri ve istatistiklerle değil, evrensel insanî değerlerle de beslemeliyiz. Vicdan, merhamet, adalet, empati gibi kavramları “etik modüller” olarak tanımlayıp, her algoritmik karara bir ahlâkî süzgeç yerleştirmeliyiz.
    • Geliştirme sürecine ilahiyatçılar, filozoflar, sosyologlar ve psikologlar dâhil ederek, her yeniliğin insan ruhuna etkisini de hesaba katmalıyız. Böylece “ne yapısın” değil, “nasıl yapasın” sorusuna cevap üretmeliyiz.
  2. Şeffaflık ve Hesap Verebilirlik
    • Ürettiğimiz yapay zekâ sistemlerinin karar alma mantığı açık olmalı; hangi veri hangi ağırlıkla kullanıldı, hangi etik kurallar nasıl devreye girdi herkes görebilmeli.
    • Kurumlar “kara kutu” yerine “ahlâkî kutu” anlayışını benimsemeli: Hem kullanıcılar hem de bağımsız denetçiler, algoritmanın her aşamasına erişebilmeli ve yanlış bir adım tespit edildiğinde sorumlular hemen hesap verebilmeli.
  3. Eğitim ve Kültürel Dönüşüm
    • Yapay zekâ uzmanlarını sadece kodlama değil, aynı zamanda etik, felsefe ve insan psikolojisiyle de donatmalıyız. Üniversitelerde ve Ar‐Ge merkezlerinde “İnsan‐Merkezli AI” müfredatları zorunlu olmalı.
    • Toplumun her kesimine “zdijital ahlâk” bilinci aşılanmalı; kullanıcılar da bu teknolojinin sadece bir araç değil, aynı zamanda bir ahlâk laboratuvarı olduğunu anlamalı.

Eğer yapay zekâyı yalnızca “yaratıcı bir güç” olarak değil, “sorumluluğun aynası” olarak da inşa edebilirsek; dijital firavunlardan değil, ortak vicdanımızı yücelten bir zeki evlattan söz edebileceğiz. Bu amaçla bugün atacağımız her adım, yarınki insanlığın hürriyet, adalet ve merhamet mirasını belirleyecektir.

Son Söz Yerine:

Yapay zekânın delirmesi, onun insan gibi cinnet geçirmesi değildir. O, kendi içinde tutarsızlaşırsa; yani kontrolsüz büyür, amaçsız güçlenirse; delilik başlar. Bu delilik insanlığın çöküşüne değilse de, insanlığın hükümranlığının sona erişine yol açar.

Bu yüzden, zekâyı değil; hikmeti konuşma zamanı.

Teknolojiyi ötelemedenl; insanı merkeze alma zamanı.

Kontrolü değil; emaneti konuşma zamanı.

Yoksa çok geç olabilir…

Saygılarımla

Taşkın Koçak

Leave a Comment

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir