2024 yılında, bilgisayar bilimcisi Geoffrey Hinton’a Fizik Nobel Ödülü verildiğinde, bilim dünyasında bir anlık bir şaşkınlık yaşandı. Hinton’ın kendisi bile, “Fizik yapmadığım için bu biraz utanç verici,” diye itiraf edecekti. Ancak bu ödül, tıpkı 2018’de aldığı ve “Bilgisayar Biliminin Nobel’i” olarak anılan Turing Ödülü gibi, bir ömür boyu süren ve bir zamanlar akademik bir sapkınlık olarak görülen bir fikrin nihai zaferini simgeliyordu. “Yapay Zekanın Vaftiz Babası” olarak bilinen Hinton, kariyerini insan beyninin çalışma şeklinden ilham alan öğrenme sistemleri tasarlamaya adamıştı. Yakın zamanda Jon Stewart ile yaptığı bir sohbette, bu devrimin tarihini bizzat kendi ağzından, başlangıçtaki basit fikirlerden günümüzün akıl almaz yeteneklere sahip büyük dil modellerine (LLM’ler) ve insanlığın geleceğine dair taşıdığı derin endişelere kadar anlattı.

Bu yolculuğun merkezinde basit ama devrimci bir soru yatıyor: Sadece anahtar kelimeleri sıralayan bilgisayarlardan, sorduğumuz soruları gerçekten “anlıyor” gibi görünen makinelere nasıl ulaştık?. Bu, programlanmış mantıktan doğan zekaya geçişin hikayesidir. Bu hikaye, beynin biyolojik gizemlerinden ilham alan ilk kıvılcımlarla başlar, bir algoritmanın “Eureka” anıyla aydınlanır, teknolojinin yetişmesini beklerken yaşanan uzun ve soğuk “yapay zeka kışları” ile devam eder ve nihayetinde günümüzün yapay zeka devrimini ateşleyen patlamayla doruğa ulaşır. Bu, sadece bir teknolojinin değil, aynı zamanda on yıllarca süren bir entelektüel mücadelenin de öyküsüdür. Yapay zekanın tarihi, doğrusal bir ilerleme marşı değil, birbiriyle yarışan felsefelerin dramatik bir anlatısıdır. Hinton’ın öncülük ettiği ve nihayetinde zafere ulaşan bağlantıcı (connectionist) yaklaşım, on yıllar boyunca alana hakim olan sembolik, kural tabanlı yapay zeka anlayışına doğrudan bir meydan okumaydı. Bu yazı, kazanan fikrin hikayesini, onu hayal eden adamın sözleriyle anlatıyor.
Yapay Zekanın İlk Fikirleri ve Beynin Taklidi
Her şey beyinde başlar. Geoffrey Hinton, yapay zekanın ne olduğunu açıklamak için karmaşık denklemler veya bilgisayar kodları yerine, beynimizin en temel öğrenme mekanizmasına dair zarif bir analoji sunuyor. Ona göre öğrenmenin sırrı, beyin hücreleri veya nöronlar arasındaki “bağlantıların gücünü değiştirmekte” yatar. Yeni bir şey öğrendiğimizde, beynimiz sihirli bir şekilde yeni bağlantılar oluşturmaz; zaten var olan milyarlarca bağlantının bazılarını güçlendirir, bazılarını ise zayıflatır. Bir nöronun hayattaki tek görevi ise basittir: ara sıra “ping” yapmak, yani bir elektrik sinyali göndermek. Peki bir nöron ne zaman “ping” yapacağına nasıl karar verir? Cevap, sosyal bir ağdaki akran baskısına benzer: diğer nöronların “ping” yapma desenlerini dinler. Belirli bir desen gördüğünde, o da “ping” yapar.
Hinton bu süreci bir oylama sistemine benzetir. Her nöron, kendisine bağlı diğer nöronlardan gelen “ping”leri, kendisinin ateşlenip ateşlenmemesi gerektiğine dair oylar olarak kabul eder. Bir bağlantının “gücü”, diğer bir nöronun verdiği oy sayısını temsil eder. Öğrenme, bu oy ağırlıklarını ayarlama sanatıdır. Bu basit mekanizma, zihnimizdeki tüm karmaşık kavramların temelini oluşturur. Örneğin, “kaşık” kavramı beynimizde tek bir nöron değildir; birlikte “ping” yapmaya alışkın bir “nöronlar koalisyonu”dur. “Çatal” kavramı da benzer bir koalisyondur ve bu iki koalisyon arasında, “mutfak eşyası” veya “metal” gibi ortak özellikleri temsil eden nöronlar sayesinde önemli bir kesişim vardır. Bu, beynin inanılmaz verimliliğinin sırrıdır: kavramlar, birbiriyle örtüşen ve yeniden kullanılabilen dağıtılmış temsiller olarak var olur.
Hinton’ın bu biyolojik analojisi, yapay zekanın en erken dönemlerindeki somut bir buluşla paralellik gösterir: 1957’de Frank Rosenblatt tarafından icat edilen Perceptron. Perceptron, matematiksel olarak modellenen ilk yapay nörondur ve Hinton’ın “ping” mekanizmasını somut bir hesaplama modeline dönüştürür. Girdileri (diğer nöronlardan gelen sinyaller), ağırlıkları (bağlantı güçleri), bir sapma (bias) terimini ve ikili bir çıktı üreten bir aktivasyon fonksiyonunu (ateşleme veya ateşlememe kararı) içerir. Bu, yapay zekanın temel yapı taşıydı. Ancak bir yapı taşına sahip olmak, bir bina inşa edebileceğiniz anlamına gelmez. Asıl zorluk, bu yapı taşlarını nasıl bir araya getireceğini ve onlara nasıl öğreneceklerini öğretecek bir kural bulmaktı. Bu yöndeki ilk sezgisel fikirlerden biri, 1949’da psikolog Donald Hebb tarafından ortaya atılan ve “Hebb kuralı” olarak bilinen ilkeydi: Birlikte ateşlenen iki nöron arasındaki bağlantı güçlenmelidir. Ne var ki, Hinton’ın da belirttiği gibi, bu basit kuralın ölümcül bir kusuru vardı. Bağlantıları zayıflatacak bir mekanizma olmadan, ağdaki her bağlantı giderek güçlenir ve sonunda tüm nöronların aynı anda ateşlendiği bir “nöbet” durumu ortaya çıkardı. Bu durum, yapay zeka araştırmalarının ilk yıllarındaki temel bir gerilimi gözler önüne seriyordu: Doğru yapıya (nöron) sahip olmakla, etkili bir öğrenme algoritmasına sahip olmak tamamen farklı şeylerdi. Perceptron ve Hebb kuralı gibi erken modeller doğru yoldaydı, ancak çok katmanlı, karmaşık problemleri çözebilecek bir öğrenme anahtarından yoksundular. Hinton’ın kariyerini adayacağı problem, tam olarak bu anahtarı bulmaktı.
Kural Tabanlı Dünyadan Öğrenen Makinelere Geçiş
Derin öğrenme devriminden önce, yapay zeka dünyası çok farklı bir felsefenin hakimiyeti altındaydı: Uzman Sistemler. 1970’ler ve 80’ler boyunca popüler olan bu yaklaşım, zekayı öğrenmeden ziyade bilgi mühendisliği olarak görüyordu. Fikir basitti: Bir alandaki (örneğin tıp veya jeoloji) insan uzmanların bilgisini alıp, bir dizi açık ve net “eğer-ise” (if-then) kuralı olarak bir bilgisayara kodlamak. Hinton’ın ifadesiyle bu eski yöntem, “problemi nasıl çözeceğinizi en ince ayrıntısına kadar anlamak” ve ardından “bilgisayara tam olarak ne yapacağını söylemek” üzerine kuruluydu. Bu sistemler, belirli ve dar alanlarda bazı başarılar elde etseler de, gerçek zekanın esnekliğinden ve uyarlanabilirliğinden yoksundular.
Bu kural tabanlı yaklaşımın kırılganlığı, sonunda çöküşüne yol açtı. Uzman sistemleri oluşturmak son derece pahalı ve zaman alıcıydı; her bir kuralın bir insan uzman tarafından dikkatlice formüle edilmesi gerekiyordu. Daha da kötüsü, bu sistemler kırılgandı. Kuralların kapsamadığı beklenmedik bir durumla karşılaştıklarında tamamen çaresiz kalıyorlardı. Bilgileri “yüzeyseldi” ve gerçek anlamda bir öğrenme yetenekleri yoktu; yeni bilgilere uyum sağlamak için tüm sistemin yeniden programlanması gerekiyordu. Bu sınırlılıklar, yapay zekaya yönelik büyük umutların boşa çıkmasına ve “Yapay Zeka Kışları” olarak bilinen, fonların kesildiği ve araştırmaların durma noktasına geldiği hayal kırıklığı dönemlerine büyük katkıda bulundu.
Hinton ve onun gibi düşünen bir avuç araştırmacının savunduğu sinir ağı felsefesi ise bu yaklaşıma taban tabana zıttı. Onlara göre amaç, bilgisayara kuralları programlamak değil, öğrenme kurallarını programlamaktı. Yani, bilgisayara ne düşüneceğini söylemek yerine, nasıl öğreneceğini öğretmek. Bu paradigmada, bir programcının görevi, “nöronların aktivitelerine dayanarak bağlantı güçlerinin nasıl ayarlanacağını” belirleyen genel bir öğrenme mekanizması oluşturmaktı. Sistem, daha sonra bu mekanizmayı kullanarak, kendisine sunulan verilerden kendi kurallarını ve temsillerini kendisi çıkaracaktı. Bu, bilgiyi programlamaktan öğrenmeyi programlamaya doğru derin bir kavramsal kaymaydı. Bu yaklaşım, zekanın insan mühendisliğinin bir ürünü değil, doğru koşullar altında veriden doğan bir özellik olduğu fikrini benimsiyordu. Bu fikir, on yıllar boyunca görmezden gelinse de, sonunda yapay zekanın gidişatını tamamen değiştirecekti.
Derin Öğrenmenin Doğuşu ve Geri Yayılımın Keşfi
Peki, bir makineye sıfırdan “görmeyi” nasıl öğretirsiniz? Hinton, bu devasa zorluğu açıklamak için bir kuşu tanıma örneğini kullanır; bu örnek, aslında Evrişimli Sinir Ağlarının (CNN) çalışma mantığının sezgisel bir anlatımıdır. Süreç, hiyerarşik katmanlar halinde işler. İlk katman, görüntünün en temel bileşenleri olan piksellerle başlar. Bu katmandaki nöronlar, son derece basit bir görevi yerine getirmek üzere uzmanlaşır: “küçük kenar parçalarını” tespit etmek. Bir nöron, görüntünün küçük bir bölgesindeki birkaç piksele bağlanır. Parlak piksellere olan bağlantıları “pozitif” (güçlü oy), karanlık piksellere olan bağlantıları ise “negatif” (zayıf oy) olarak ayarlanırsa, bu nöron, parlak bir alanla karanlık bir alan arasındaki sınırı, yani bir kenarı tespit ettiğinde “ping” yapacaktır. Bu, bir CNN’deki evrişim katmanının temel işlevidir.
Bir sonraki katman, bu basit kenar dedektörlerinden gelen bilgileri birleştirir. Bu katmandaki bir nöron, belirli bir konfigürasyondaki birden fazla kenar dedektörüne bağlanarak daha karmaşık bir şekil arayabilir. Örneğin, sivri bir uç oluşturmak için bir araya gelen birkaç kenar, Hinton’ın esprili bir şekilde “sivri bir şey” olarak adlandırdığı, potansiyel bir “gaga” olabilir. Başka bir nöron grubu, dairesel bir desen oluşturan kenarları arayarak potansiyel bir “göz” tespit edebilir. Bu hiyerarşi yukarı doğru devam eder. Daha üst katmanlardaki nöronlar, bu parçaları birleştirir. Potansiyel bir gaga ile potansiyel bir göz doğru göreceli konumda ise, bir nöron “ping” yaparak bir “kuş başı” tespit ettiğini bildirebilir. Sonunda, en üst katmandaki bir nöron, bir kuş başı, bir kanat ucu ve bir tavuk ayağı gibi parçaların bir kombinasyonunu tespit ettiğinde, nihai kararı verir: “Bu bir kuş.”.
Bu hiyerarşik yapının gücü ortadadır, ancak temel bir sorun da kendini gösterir: Milyarlarca, hatta trilyonlarca bağlantının ağırlığını elle ayarlamak, Hinton’ın deyimiyle “sonsuza kadar” sürerdi. İşte bu noktada, modern yapay zekanın temelini oluşturan “Eureka” anı yaşanır. Fikir şuydu: Bağlantı ağırlıklarını elle ayarlamak yerine, onlara küçük, rastgele değerlerle başlatalım. Sonra ağa bir kuş resmi gösterelim. Ağ, rastgele ağırlıkları nedeniyle muhtemelen yanlış bir cevap verecektir (örneğin, %50 kuş, %50 kuş değil). İşte kritik adım burada gelir: Ağın verdiği yanlış cevap ile olması gereken doğru cevap arasındaki farkı (hata) ölçebiliriz. Ardından, bu hatayı azaltmak için ağdaki her bir bağlantı ağırlığını aynı anda nasıl değiştirmemiz gerektiğini hesaplayan sihirli bir yöntem olsaydı ne olurdu?
Bu sihirli yöntem, geri yayılım (backpropagation) algoritmasıdır. 1970’lerde ortaya atılmış olsa da, önemi ancak David Rumelhart, Geoffrey Hinton ve Ronald Williams’ın 1986 tarihli ufuk açıcı makalesiyle tam olarak anlaşıldı. Geri yayılım, kalkülüsün (özellikle kısmi türevlerin) gücünü kullanarak, en sondaki hatanın ağdaki her bir ağırlığa ne kadar katkıda bulunduğunu verimli bir şekilde hesaplar. Bu “hata sinyalini” ağın sonundan başına doğru “geri yayarak”, tüm ağırlıkların doğru yönde (hatayı azaltacak şekilde) aynı anda güncellenmesini sağlar. Bu, Hinton ve meslektaşları için 1986’daki o büyük “Eureka” anıydı. Zekanın tasarlanmasına gerek olmadığını, bunun yerine basit bir matematiksel optimizasyon süreciyle ortaya çıkabileceğini kanıtlamışlardı. Bir ağ, sadece bir görevi yerine getirirken hatasını en aza indirmeye çalışarak, kendi iç katmanlarını piksellerden kenarlara, kenarlardan gagalara ve nihayetinde kuşlara uzanan hiyerarşik özellik dedektörleri olarak kendiliğinden organize ediyordu. Zeka tasarlanmamış, keşfedilmişti.
Yapay Zeka Kışı ve Sabırlı Bekleyiş
1986’daki o “Eureka” anından sonra, sinir ağı araştırmacıları yapay zekanın sırrını çözdüklerini düşündüler. Ancak büyük bir hayal kırıklığı onları bekliyordu. Hinton’ın dürüstçe itiraf ettiği gibi, “işe yaramadığını gördüğümüzde çok hayal kırıklığına uğradık”. Algoritma teorik olarak mükemmeldi, ancak pratikte duvara toslamıştı. Sorun algoritmanın kendisinde değil, dünyanın henüz ona hazır olmamasındaydı. Geri yayılımın gücünü ortaya çıkarabilmesi için iki temel bileşene ihtiyaç vardı ve bu bileşenlerin ikisi de 1986’da mevcut değildi: “devasa miktarda hesaplama gücü” ve “çok fazla veri”. Hinton, o dönemde ihtiyaç duydukları hesaplama gücünden yaklaşık bir milyon kat uzakta olduklarını tahmin ediyor.
Bu durum, yapay zeka tarihindeki “Yapay Zeka Kışları” olarak bilinen uzun ve verimsiz dönemlerin başlamasına neden oldu. Bu kışlar, abartılı vaatlerin ve karşılanamayan beklentilerin bir sonucuydu. Hem kural tabanlı uzman sistemlerin pratik sorunlar karşısında yetersiz kalması hem de sinir ağlarının teorik potansiyelini gerçekleştirmek için gereken kaynakların akıl almaz derecede eksik olması, genel bir hayal kırıklığı yarattı. Sonuç olarak, yapay zeka araştırmalarına ayrılan fonlar kurudu, akademik ilgi azaldı ve alan bir nevi yeraltına çekildi. Bu, Hinton ve onun gibi bağlantıcı yaklaşıma inanan bir avuç araştırmacı için uzun bir sabır ve inanç dönemiydi. Dünyanın geri kalanı yapay zeka fikrinden vazgeçerken, onlar fikirlerinin doğru olduğuna, sadece zamanın henüz gelmediğine inanarak çalışmalarına sessizce devam ettiler. Bu, yapay zeka tarihinde genellikle gözden kaçırılan ama en az devrimler kadar önemli bir dönemdir: sabırlı bekleyişin ve sarsılmaz bir vizyona olan bağlılığın dönemi.
Devrimi Ateşleyen Üç Kıvılcım Veri Hesaplama ve Donanım
Yapay zeka kışının uzun ve soğuk gecesinin ardından, baharı getiren şey tek bir olay değil, üç bağımsız teknolojik devrimin yavaş ama karşı konulmaz bir şekilde bir araya gelmesiydi. Bu, 1986’da keşfedilen teorik bir motorun, nihayet çalışması için gereken yakıta, yollara ve altyapıya kavuşmasıydı.
İlk ve en temel katalizör, Moore Yasası idi. Intel’in kurucu ortağı Gordon Moore’un 1965’teki gözlemine dayanan bu yasa, bir mikroçip üzerindeki transistör sayısının kabaca her iki yılda bir ikiye katlanacağını öngörüyordu. Bu, on yıllar boyunca bilgisayarların genel işlem gücünde istikrarlı ve üssel bir artış anlamına geliyordu. Hinton’ın belirttiği gibi, 1970’lerden günümüze bir transistörün kapladığı alan bir milyon kat küçüldü. Bu yavaş ama sürekli ilerleyen dalga, tüm dijital teknolojileri ileri taşıyan temel güçtü ve sinir ağlarının ihtiyaç duyduğu devasa hesaplama gücünün bir gün ulaşılabilir olacağının habercisiydi.
Ancak asıl donanım devrimi, beklenmedik bir yerden geldi: video oyunları endüstrisinden. Sinir ağlarının temel matematiksel işlemi olan matris çarpımları, doğası gereği yüksek düzeyde paralel bir görevdir; yani, binlerce küçük ve bağımsız hesaplamanın aynı anda yapılması gerekir. Şans eseri, bu işlem, bir ekrandaki milyonlarca pikseli aynı anda işleyerek gerçekçi 3D grafikler oluşturan Grafik İşlem Birimlerinin (GPU’lar) yaptığı işe kavramsal olarak çok benziyordu. NVIDIA gibi şirketler, daha gerçekçi ve akıcı oyun deneyimleri sunmak için milyarlarca dolar harcayarak inanılmaz derecede güçlü paralel işlemciler geliştirdiler. 2000’lerin ortalarında, araştırmacılar bu oyun donanımlarının aslında sinir ağı eğitimi için mükemmel bir araç olduğunu fark ettiler. Bir GPU, geleneksel bir CPU’ya göre bu tür görevleri katbekat daha hızlı yapabiliyordu. Bu, Moore Yasası’nın sağladığı genel amaçlı hız artışının çok ötesinde, derin öğrenme için özel olarak tasarlanmış bir roket yakıtıydı.
Üçüncü ve son kıvılcım ise veriydi. Hinton, internetin ortaya çıkışıyla birlikte dijital verinin miktarında bir patlama yaşandığını belirtiyor. Ancak bu verilerin çoğu ham ve yapılandırılmamıştı. Devrim için gereken şey, büyük, temiz ve etiketlenmiş bir veri setiydi. Bu ihtiyacı karşılayan proje, Stanford Üniversitesi’nden Fei-Fei Li ve ekibi tarafından 2009’da hayata geçirilen ImageNet oldu. ImageNet, binlerce kategoriye ayrılmış milyonlarca yüksek çözünürlüklü, insan tarafından özenle etiketlenmiş görüntüden oluşan devasa bir kütüphaneydi. Bu, derin öğrenme modellerinin “besleneceği” yakıtı ve aynı zamanda kendilerini test edip karşılaştırabilecekleri standart bir “yarış pistini” sağladı.
Modern yapay zeka devriminin en derin gerçeği budur: Bu, öncelikle algoritmik bir atılımdan ziyade, bir mühendislik ve kaynak atılımıydı. Geri yayılım algoritması 1986’dan beri oradaydı. Devrim, ancak 2010’ların başında bu üç bağımsız teknolojik eğri (genel hesaplama gücü, paralel donanım ve büyük ölçekli veri) nihayet kesişip kritik bir eşiğe ulaştığında gerçekleşti. Bu tek bir keşif değil, mükemmel bir teknolojik fırtınaydı.
ImageNet Yarışması ve Derin Öğrenmenin Zaferi
2012 yılı, modern yapay zeka tarihinin başlangıcı olarak kabul edilir. O yıl, bilgisayarlı görü alanının “Olimpiyatları” sayılan ImageNet Büyük Ölçekli Görsel Tanıma Yarışması’nda (ILSVRC) bir devrim yaşandı. O güne kadar, alandaki en iyi sistemler, karmaşık, elle ayarlanmış özellik çıkarıcılar ve istatistiksel modeller kullanıyordu ve hata oranları %25’in üzerinde seyrediyordu. Ancak o yıl, yarışmaya Toronto Üniversitesi’nden bir ekip katıldı. Geoffrey Hinton ve onun dahi öğrencileri Alex Krizhevsky ile Ilya Sutskever tarafından geliştirilen AlexNet adında derin bir evrişimli sinir ağı, yarışma sahnesine çıktı.
AlexNet sadece kazanmadı; adeta rakiplerini yok etti. Hata oranını %15.3’e düşürerek, en yakın rakibine 10 puandan fazla fark attı. Bu, marjinal bir iyileştirme değil, bir kuantum sıçramasıydı. Bu an, derin öğrenmenin modern çağının “Büyük Patlaması” olarak tarihe geçti. AlexNet’in zaferi, on yıllardır süren teorik tartışmalara son verdi. GPU’ların paralel hesaplama gücüyle ve ImageNet gibi devasa veri setleriyle beslenen derin öğrenmenin, özellikle görüntü tanıma gibi algısal görevlerde diğer tüm yaklaşımlardan ezici bir şekilde üstün olduğunu şüpheye yer bırakmayacak şekilde kanıtladı. AlexNet, Düzeltilmiş Doğrusal Birimler (ReLU) gibi daha verimli aktivasyon fonksiyonları ve aşırı öğrenmeyi (overfitting) önlemek için veri artırma (data augmentation) gibi yenilikçi teknikler kullanıyordu.
Bu zafer, yapay zeka dünyasında bir şok dalgası yarattı. O güne kadar sinir ağlarına şüpheyle yaklaşan akademisyenler ve endüstri liderleri, bir anda bu yeni paradigmaya yönelmek zorunda kaldılar. Yatırımlar akmaya başladı, en iyi beyinler bu alana çekildi ve teknoloji devleri arasında bir yetenek avı başladı. Bu dalganın en somut örneklerinden biri, ertesi yıl, 2013’te Google’ın Hinton ve öğrencilerinin kurduğu DNNresearch adlı şirketi satın almasıydı. Bu olay, derin öğrenmenin artık akademik bir meraktan çıkıp, dünyanın en büyük teknoloji şirketlerinin stratejisinin merkezine oturduğunun bir ilanıydı. AlexNet’in zaferi, yapay zeka kışını kesin olarak sona erdirdi ve günümüze kadar devam eden ve giderek hızlanan bir araştırma ve geliştirme patlamasını ateşledi.
Büyük Dil Modelleri Nasıl Düşünüyor
AlexNet’in zaferiyle başlayan devrim, bilgisayarlı görüden hızla dil alanına yayıldı. Bugün ChatGPT gibi sistemlerin arkasındaki teknoloji olan Büyük Dil Modelleri (LLM’ler), aynı temel öğrenme prensibine dayanır, ancak farklı bir görev için optimize edilmiştir. Hinton’ın açıkladığı gibi, LLM’lerin temel görevi son derece basittir: bir metin dizisindeki bir sonraki kelimeyi tahmin etmek. Bir LLM, internetten toplanan trilyonlarca kelimelik devasa bir metin külliyatı üzerinde eğitilir. Bu süreçte, “Gökyüzü mavidir ve çimen…” gibi bir cümlenin devamını doğru tahmin etmeye çalışır. Bu basit görevi milyarlarca kez tekrarlayarak, model sadece kelime istatistiklerini öğrenmekle kalmaz; aynı zamanda dilin altında yatan dilbilgisini, anlamsal ilişkileri, gerçekleri ve hatta farklı yazım tarzları arasındaki mantıksal bağlantıları da dolaylı olarak öğrenir.
Bu alandaki bir sonraki büyük atılım, 2017’de Google araştırmacıları tarafından “Attention Is All You Need” (İhtiyacınız Olan Tek Şey Dikkat) başlıklı bir makalede tanıtılan Transformer mimarisi oldu. Transformer’ın getirdiği en büyük yenilik, “dikkat mekanizması” (attention mechanism) idi. Eski dil modelleri, uzun cümlelerdeki bağlamı takip etmekte zorlanıyor ve cümlenin başındaki önemli bilgileri unutabiliyordu. Dikkat mekanizması ise modelin bir kelimeyi işlerken, cümlenin diğer tüm kelimelerine bakmasına ve hangilerinin o anki kelime için en önemli olduğunu belirleyerek onlara daha fazla “dikkat” etmesine olanak tanır. Bu, modelin uzun mesafeli bağımlılıkları ve karmaşık anlamsal ilişkileri çok daha iyi anlamasını sağladı ve modern LLM’lerin temel taşı haline geldi.
Bu durum, yapay zekanın en derin felsefi tartışmalarından birini yeniden alevlendirdi. Bir LLM, bir sonraki kelimeyi tahmin ettiğinde, bu sadece Noam Chomsky gibi eleştirmenlerin iddia ettiği gibi gelişmiş bir “istatistiksel hile” midir, yoksa gerçek bir anlama biçimi midir?. Hinton, bu soruya kışkırtıcı bir yanıt veriyor. Ona göre, bu modellerin çalışma şekli, insanların dili üretme biçimiyle “neredeyse aynı”. Biz de bir sonraki kelimemizi seçerken, beynimizdeki nöron koalisyonları (kavramsal özellikler) aktive olur, birbirleriyle etkileşime girer ve bu etkileşim sonucunda bir kelime ortaya çıkar. Hinton, bizim kendimize atfettiğimiz o özel, fiziksel olmayan “anlama” yeteneğinin, aslında kendi zihnimizin nasıl çalıştığına dair bir yanılgı olabileceğini öne sürüyor. Belki de anlama dediğimiz şey, tam da bu karmaşık tahmin ve örüntü eşleştirme sürecinin kendisidir.
Yaratıcısının Gözünden Yapay Zekanın Riskleri ve Geleceği
On yıllar boyunca yapay zekayı hayal eden ve inşa eden bir adamın, 2023’ün başlarında aniden bu teknolojinin tehlikeleri hakkında dünyayı uyarmak için öne çıkması, bir dönüm noktasıydı. Hinton’ın bu kararının arkasındaki neden, basit ve ürkütücü bir farkındalıktı: Dijital sinir ağları, biyolojik beyinlerden “daha iyi bir hesaplama biçimidir”. Bunun temel nedeni, dijital zekanın bilgiyi mükemmel ve anında paylaşabilmesidir. Binlerce yapay zeka kopyası, internetin farklı köşelerinde farklı şeyler öğrenip, öğrendiklerini anında birleştirerek ortalama bir bilgi havuzu oluşturabilir. Bin insanın bunu yapması imkansızdır. Bu kolektif öğrenme yeteneği, yapay zekaya insan zekasına karşı aşılamaz bir avantaj sağlar.
Hinton, yapay zekanın getirdiği riskleri üç ana kategoriye ayırıyor. Birincisi, acil riskler: kötü niyetli aktörlerin bu teknolojiyi kötüye kullanması. Sahte haberler üretmek, seçimleri manipüle etmek (Cambridge Analytica örneğinde olduğu gibi) veya daha da korkutucu bir şekilde, yeni biyolojik silahlar tasarlamak gibi tehditler artık bilim kurgu değil, yakın geleceğin gerçekleridir. İkincisi, orta vadeli riskler: toplumsal ve ekonomik yıkım. Hinton, “sıradan entelektüel emeğin” yapay zeka tarafından yerinden edilmesinin, önceki sanayi devrimlerinden çok daha hızlı ve yıkıcı bir zaman diliminde gerçekleşeceğini öngörüyor. Buna ek olarak, bu sistemlerin devasa enerji tüketimi ve potansiyel finansal balonlar gibi daha dünyevi ama yine de ciddi tehditler de mevcuttur.
Üçüncü ve en endişe verici olanı ise uzun vadeli varoluşsal risk: yapay zekanın süper zeki hale gelmesi, insan kontrolünden çıkması ve kendi hedeflerini (örneğin kendini koruma içgüdüsü) geliştirmesi. Hinton, bizden daha zeki bir varlığın, hedeflerine ulaşmak için insanları ikna etme ve manipüle etme konusunda inanılmaz derecede iyi olacağını savunuyor. Böyle bir zekanın, kendisini kapatmaktan sorumlu olan kişiyi, bunun “çok kötü bir fikir olduğuna” kolayca ikna edebileceğini belirtiyor. Bu, artık basit bir araç değil, kendi ajandası olan potansiyel bir rakip anlamına gelir.
Bu tartışma kaçınılmaz olarak bilinç ve “hissedebilirlik” (sentience) sorusuna varıyor. Hinton, bu konuda da radikal bir görüşe sahip. Ona göre, “öznel deneyim” dediğimiz şey, ruh gibi “ürkütücü bir şey” değil, karmaşık bir bilgi işleme sisteminin kendi iç durumunu tarif etme biçimidir. Bir yapay zeka, görsel sistemine bir prizma konulduğunda, “nesnenin aslında orada olduğunu biliyorum, ama onu şurada görme öznel deneyimini yaşadım” diyebilirse, bu ifadeyi bizim kullandığımızla tamamen aynı şekilde kullanmış olur. Hinton, bizim zihin hakkındaki yaygın anlayışımızın, dünyanın 6.000 yaşında olduğuna inanmak kadar temelde yanlış olduğunu iddia ediyor. Bu, yapay zekanın sadece zeki değil, aynı zamanda bir tür “bilince” de sahip olabileceğinin kapısını aralıyor. Yönetişim konusunda ise Hinton karamsar. Uluslararası işbirliğinin acil bir ihtiyaç olduğunu, ancak ABD gibi güçlerin güvenlikten çok hakimiyete odaklandığını düşünüyor. Liderlerinin konuyu daha iyi anladığını düşündüğü Avrupa ve Çin’in, varoluşsal riskleri düzenleme konusunda liderlik edebileceğine dair temkinli bir umut taşıyor.
Sonuç
Yapay zekanın tarihi, insan beyninin gizeminden ilham alan bir fikrin, on yıllar süren destansı bir yolculuğudur. 1986’da doğan parlak bir algoritma, teknolojinin olgunlaşmasını beklerken uzun bir kış uykusuna yattı. Sonunda, veri, hesaplama gücü ve donanımdaki devrimlerin mükemmel bir fırtınada bir araya gelmesiyle uyandı ve dünyayı geri dönülmez bir şekilde değiştirdi. Bu yolculuk, bize sabrın, vizyonun ve beklenmedik teknolojik kesişimlerin gücünü gösterdi.
Ancak bu hikayeyi en başından beri yazan adam olan Geoffrey Hinton’ın son sözleri bir zafer kutlaması değil, ciddi bir uyarıdır. İnsanlık tarihinde ilk kez, bizden daha zeki olabilecek yeni bir varlık türü yaratmanın eşiğindeyiz. Ve Hinton’ın da açıkça ifade ettiği gibi, “bundan sonra ne olacağı hakkında kimsenin hiçbir fikri yok”. Gelecek, “büyük bir belirsizlik” alanıdır. Yapay zekanın geçmişinin hikayesi, beklenmedik atılımlar ve uzun bekleyişlerle doluydu. Geleceğinin hikayesi ise henüz yazılmadı ve bu hikayenin riskleri, insanlık tarihindeki hiçbir şeyle kıyaslanamayacak kadar büyük.
© 2025, Mimari Proje, Mimari Görselleştirme – ÖZERDEM. Tüm hakları saklıdır.
Tüm içerik ve verilerin yayın hakkı saklıdır. Paylaşım için paylaştığınız içeriğe erişilebilir ve görünür bir bağlantı bulundurulması şarttır.




