Yapay Zekanın Evrimi
Geçmişten Günümüze ve Geleceğe Bakış
Anahtar Noktalar
- 8 on yıllık bilimsel evrim ve 2 "AI Kışı" dönemi
- Sembolik AI'dan nöral ağlara paradigmatik dönüşüm
- Büyük veri ve GPU devriminin tetiklediği derin öğrenme çağı
- Transformer mimarisi ve generative AI'nın yükselişi
Kritik Dönüm Noktaları
1. Yapay Zekanın Doğuşu ve İlk Adımlar (1940'lar - 1950'ler)
1.1. Temel Kavramların Ortaya Çıkışı
Yapay zekanın kökenleri, dijital bilgisayarların ortaya çıkmasından çok öncesine, insanlığın yapay varlıklar ve mekanik zeka fikirlerini düşünmeye başladığı antik çağlara kadar uzanır. Antik Yunan mitolojisinde, tanrı Hephaestus'un mekanik hizmetkarlar yarattığı ve Girit adasını koruyan bronz dev Talos'un hikayeleri, teknoloji yoluyla yaşam yaratma ve zeka aşılama fikrinin erken örneklerini teşkil eder [29].
Modern YZ'nin doğuşu ise 20. yüzyılda, teorik kavramların pratik deneylere dönüşmeye başladığı döneme denk gelir. 1943 yılında Warren McCulloch ve Walter Pitts, sinir ağlarının ilk matematiksel modelini "Sinirsel Faaliyetteki Fikirlerin Mantıksal Hesaplanması" başlıklı bilimsel makalelerinde sunmuşlardır [115], [127]. Bu çalışma, YZ'nin ve özellikle makine öğrenmesinin (MÖ) konsensüs doğum yılı olarak kabul edilir.
1.2. Turing Testi ve Zekanın Tanımı
Yapay zekanın erken dönemlerinde, "zeka"nın ne olduğu ve bir makinenin ne zaman "zeki" sayılabileceği konusunda temel bir çerçeve oluşturma ihtiyacı doğdu. 1950 yılında Alan Turing tarafından "Computing Machinery and Intelligence" başlıklı makalesinde önerilen Turing Testi, YZ araştırmalarında bir mihenk taşı haline gelmiştir [115], [127].
1.3. Dartmouth Konferansı: Yapay Zeka İsminin Doğuşu
Yapay zeka (Artificial Intelligence - AI) teriminin resmi olarak ortaya çıkışı ve YZ'nin bir akademik disiplin olarak kurulması, 1956 yılında Dartmouth Koleji'nde düzenlenen bir çalıştayla gerçekleşmiştir [115], [171]. Bu çalıştay, John McCarthy, Marvin Minsky, Nathaniel Rochester ve Claude Shannon tarafından önerilmiş ve genellikle YZ alanının kuruluşu olarak kabul edilen bir olaydır.
2. İlk Heyecan ve Gerçekçi Beklentiler (1950'ler - 1970'ler)
2.1. Erken Dönem Başarılar ve İyimserlik
Dartmouth Konferansı'nın ardından, 1950'ler ve 1960'lar boyunca YZ alanında önemli ilerlemeler kaydedildi ve büyük bir iyimserlik hakim oldu [151].
1950'ler
Allen Newell, Herbert A. Simon ve Cliff Shaw tarafından geliştirilen "Logic Theorist", matematiksel teoremleri ispatlayabilen ilk YZ programı oldu.
1952
Arthur Samuel, IBM'de dama oynayan ve kendi kendine öğrenen ilk programlardan birini geliştirdi.
1958
Frank Rosenblatt, modern sinir ağlarının temelini oluşturan "perceptron"u geliştirdi.
1966
Joseph Weizenbaum'ın ELIZA programı, insanlarla sohbet edebilen ilk chatbot olarak dikkat çekti.
2.2. Mantık Tabanlı Yaklaşımlar ve Sınırlamaları
YZ'nin erken dönemlerinde, özellikle 1950'lerden 1980'lere kadar olan süreçte, "Sembolik YZ" veya "Eski Tarz İyi YZ" (GOFAI - Good Old-Fashioned AI) olarak adlandırılan mantık tabanlı yaklaşımlar hakimdi [107], [113].
Temel Sınırlamalar
- • Ölçeklenebilirlik sorunu: Karmaşık problemler için gereken kural sayısının katlanarak artması
- • Belirsizlikle baş edememe: Önceden tanımlanmamış durumlarda başarısız olma
- • Veriden öğrenme eksikliği: Tüm bilginin açıkça programlanması gerekliliği
2.3. İlk "AI Kışı": Beklentiler ve Gerçekler Arasındaki Uçurum
1970'lerin başında, YZ araştırmaları ilk büyük düş kırıklığı ve finansman kesintisi dönemine girdi; bu dönem "İlk YZ Kışı" olarak adlandırıldı [120], [153].
Bu hayal kırıklıklarının bir sonucu olarak, özellikle devlet kurumları AI araştırmalarına ayırdıkları fonları kesmeye başladı. Önemli bir dönüm noktası, 1973'te İngiltere'de yayınlanan Lighthill Raporu oldu [270], [274]. Bu rapor, AI araştırmalarının vaatlerini yerine getiremediğini ve alana yapılan yatırımların sorgulanması gerektiğini savundu.
3. Uzman Sistemler Dönemi ve İkinci AI Kışı (1970'ler - 1980'ler)
3.1. Uzman Sistemlerin Yükselişi ve Ticari Uygulamalar
İlk AI Kışı'nın ardından, 1970'lerin sonu ve 1980'lerde, yapay zeka alanında "uzman sistemler" olarak bilinen bir teknoloji öne çıkarak yeni bir heyecan dalgası yarattı [269], [283].
Başarılı Uzman Sistem Örnekleri
- • XCON (eXpert CONfigurer): DEC için VAX bilgisayar sistemlerinin konfigürasyonunu yapmak üzere geliştirildi. 10.000'den fazla kural içeriyordu ve DEC'e yılda 25 milyon dolar tasarruf sağladı [260], [282].
- • MYCIN: Kan enfeksiyonlarının teşhisinde kullanıldı ve bazı durumlarda insan doktorlardan daha iyi performans gösterdi [270].
- • DENDRAL: Kimyasal analiz alanında laboratuvarlarda başarıyla kullanıldı [270].
1980'lerin sonunda, Fortune 500 listesindeki şirketlerin neredeyse yarısının bir tür uzman sistem geliştirdiği veya kullandığı bildirildi [283].
3.2. Bilgi Tabanlı Sistemlerin Sınırları
Uzman sistemler, belirli alanlarda etkileyici başarılar göstermiş olsa da, temeldeki bilgi tabanlı yaklaşımın birçok sınırlaması vardı. En önemli sorunlardan biri "kırılganlık" (brittleness) olarak adlandırılan özellikti [258], [270].
Kırılganlık
Programlanmış kuralların dışındaki beklenmedik durumlarla baş edememe
Bilgi Edinimi Darboğazı
Uzman bilgisinin formal kurallara dönüştürülmesinin zorluğu
Bakım Kabusu
Yeni kurallar eklendiğinde ortaya çıkan beklenmedik etkileşimler
3.3. İkinci "AI Kışı": Finansman ve İlginin Azalması
Uzman sistemlerin sınırlamalarının ortaya çıkması ve özellikle Lisp makineleri pazarının çöküşüyle birlikte, 1987 yılında yapay zeka tekrar itibar kaybetti ve daha uzun süren ikinci bir "yapay zeka kışı" başladı [205]. İkinci AI kışı, 1987'den 1993'e kadar sürdü [186].
4. Makine Öğrenmesinin Yükselişi ve İstatistiksel Yaklaşımlar (1980'ler - 2000'ler)
4.1. İstatistiksel Yöntemlere Dönüş
İkinci AI kışının ardından, araştırmacılar sembolik ve kural tabanlı yaklaşımların sınırlamalarını aşmak için istatistiksel yöntemlere yöneldiler. 1980'lerde, Rodney Brooks gibi araştırmacılar genel olarak "temsil" fikrini reddederek, dünyayı algılayabilen ve içinde hareket edebilen robotlar gibi somut sistemler geliştirmeye odaklandılar [205].
1990'da Yann LeCun, evrişimli sinir ağlarının (Convolutional Neural Networks - CNN'ler) el yazısı rakamları tanımadaki başarısını gösterdi; bu, sinir ağlarının birçok başarılı uygulamasından ilkiydi ve özellikle görüntü tanıma alanında geleceğin habercisi oldu [205].
4.2. Destek Vektör Makineleri ve Kernel Yöntemleri
1990'lı yıllar, Destek Vektör Makineleri (SVM'ler) ve daha genel olarak kernel yöntemlerinin makine öğrenmesi alanında önemli bir atılım yaptığı ve yaygın olarak benimsendiği bir dönem oldu [67], [69].
SVM'lerin Avantajları
- • Sınırlı miktarda veriyle iyi genelleme performansı
- • Küresel optimum çözüm bulma garantisi
- • Aşırı öğrenmeye (overfitting) karşı direnç
- • Doğrusal olarak ayrılabilir olmayan veriler için kernel hilesi
4.3. Artan Hesaplama Gücü ve Veri Miktarı
YZ'nin, özellikle de makine öğrenmesi ve sinir ağları gibi veriye dayalı yaklaşımların, 2000'li yıllarda yeniden canlanmasının ve hızla ilerlemesinin arkasındaki en önemli itici güçlerden ikisi, hesaplama gücündeki muazzam artış ve büyük verinin ortaya çıkışıydı [64], [79].
GPU Devrimi
Grafik İşlem Birimlerinin genel amaçlı hesaplamalarda kullanılmaya başlanması, sinir ağlarının eğitim sürelerini önemli ölçüde kısalttı [64], [68].
Büyük Veri
İnternetin yaygınlaşması ve sosyal medyanın büyümesi, muazzam miktarda verinin üretilmesine ve toplanmasına yol açtı [98].
Fei-Fei Li ve ekibi tarafından 2007 yılında başlatılan ImageNet projesi, binlerce kategoride milyonlarca etiketli görüntü içeren büyük bir veri tabanı oluşturarak, bilgisayarlı görü alanındaki araştırmalar için önemli bir kaynak haline geldi [99].
5. Derin Öğrenme Devrimi (2010'lar - Günümüz)
5.1. Derin Sinir Ağlarının Geri Dönüşü
Derin sinir ağları, aslında YZ araştırmalarının erken dönemlerinden beri var olan bir kavramdı. Ancak, 1970'ler ve 1980'lerde, hesaplama gücünün yetersizliği, büyük veri kümelerinin eksikliği ve derin ağların eğitimindeki zorluklar gibi nedenlerle, bu alandaki ilerleme sınırlı kalmıştı [97].
Bu dönemde ayrıca, ReLU (Rectified Linear Unit) aktivasyon fonksiyonunun yaygın olarak benimsenmesi, kaybolan gradyan problemini hafifletmeye yardımcı oldu. Sepp Hochreiter ve Jürgen Schmidhuber tarafından 1997'de geliştirilen Uzun Kısa-Süreli Bellek (Long Short-Term Memory - LSTM) ağları ise RNN'lerin uzun dizi bağımlılıklarını öğrenmedeki zorluklarını aşmaya yardımcı oldu [68], [72].
5.2. Büyük Veri ve Artan Hesaplama Kaynaklarının Rolü
Derin öğrenmenin 2010'larda patlayıcı bir şekilde yükselişinin temelinde, Büyük verinin varlığı ve hesaplama kaynaklarındaki (özellikle GPU'lar) muazzam artış yatmaktadır [64], [79].
Dönüm Noktası: GPU'ların Derin Öğrenmede Kullanımı
Jung & Oh (2004) tarafından sığ sinir ağlarında GPU kullanımının gösterilmesinin ardından, Dan Ciresan ve Jürgen Schmidhuber'in ekibi 2010 yılında GPU'ları derin ileri beslemeli sinir ağlarını (FNN'ler) hızlandırmak için kullandı ve MNIST el yazısı rakam tanıma benchmark'ında yeni bir performans rekoru kırdı [386].
Hesaplama Gücü Artışı
10 yılda 1000 kat artış [354]
Eğitim Süresi
Haftalardan günlere/saatlere düştü
5.3. Önemli Başarılar: Görüntü Tanıma, Doğal Dil İşleme
Derin öğrenme, 2010'larda bilgisayarlı görü ve doğal dil işleme (NLP) dahil olmak üzere çeşitli alanlarda çığır açan başarılar elde etti. Bilgisayarlı görü alanında, Evrişimli Sinir Ağları (Convolutional Neural Networks - CNN'ler) hakimiyet kurdu.
AlexNet'in Tarihi Başarısı (2012)
2012'de AlexNet'in ImageNet Large Scale Visual Recognition Challenge (ILSVRC) yarışmasında elde ettiği başarı, CNN'lerin gücünü gösterdi [462], [465]. AlexNet, %16,4'lük bir hata oranıyla, bir önceki yılın en iyi geleneksel bilgisayarlı görü yöntemlerinin hata oranını neredeyse yarıya indirdi.
Doğal dil işleme alanında ise, özellikle Uzun Kısa-Süreli Bellek (LSTM) ağları ve daha sonra Transformer mimarisi önemli gelişmelere öncülük etti [465]. 2017'de Vaswani ve arkadaşları tarafından önerilen Transformer mimarisi, öz-dikkat (self-attention) mekanizması sayesinde LSTM'lerin sınırlamalarını aştı ve daha paralelize edilebilir ve ölçeklenebilir modellerin yolunu açtı.
6. Büyük Dil Modelleri ve Generative AI Çağı (2020'ler - Günümüz)
6.1. Transformer Mimarisi ve Devrimi
2017 yılında Google'ın "Attention Is All You Need" başlıklı makalesiyle tanıtılan Transformer mimarisi, doğal dil işleme (NLP) ve genel olarak YZ alanında bir devrim yarattı [465].
Transformer'ın Temel Yenilikleri
Öz-dikkat Mekanizması
Bir dizideki her bir öğenin, diğer tüm öğelerle olan ilişkisini ağırlıklandırarak öğrenmesine olanak tanır.
Paralel İşleme
RNN'lerin aksine, verilerin paralel olarak işlenmesine uygundur, eğitim sürelerini kısaltır.
6.2. GPT Serisi ve Diğer Büyük Dil Modelleri
Transformer mimarisinin başarısının ardından, Büyük dil modelleri (Large Language Models - LLM'ler) YZ'nin yeni ön saflarına yerleşti. OpenAI tarafından geliştirilen GPT (Generative Pre-trained Transformer) serisi, bu alandaki en önemli kilometre taşlarından biridir.
| Model | Yıl | Parametre Sayısı | Önemli Özellikler |
|---|---|---|---|
| GPT-2 | 2019 | 1.5B | İlk büyük ölçekli generative model |
| GPT-3 | 2020 | 175B | Few-shot ve zero-shot öğrenme |
| GPT-4 | 2023 | ~1T | Multimodal yetenekler |
Diğer önemli LLM'ler arasında Google'ın BERT (Bidirectional Encoder Representations from Transformers) ve onun türevleri (örneğin, RoBERTa, ALBERT), T5 (Text-To-Text Transfer Transformer) ve daha yakın zamanda PaLM ve LaMDA gibi modeller yer alır.
6.3. Generative AI'nın Yaygınlaşması ve Etkileri
Büyük dil modellerinin ve diğer generative (üretici) modellerin (örneğin, görüntü üreten DALL-E, Midjourney, Stable Diffusion) ortaya çıkışı, Generative AI (Üretici Yapay Zeka) çağını başlattı.
Olumlu Etkiler
- • İçerik oluşturmada verimlilik artışı
- • Tasarım ve prototiplemede hızlanma
- • Yazılım geliştirme süreçlerinin iyileşmesi
- • Eğitimde kişiselleştirilmiş öğrenme deneyimleri
Endişeler ve Zorluklar
- • Sahte haberlerin (deepfake'ler dahil) yayılması
- • Telif hakları ihlalleri
- • Önyargıların pekiştirilmesi
- • İşlerin otomasyonu nedeniyle istihdam kaybı
7. Geleceğe Bakış: AGI'ye Doğru mu?
7.1. Mevcut Eğilimler: Daha Büyük, Daha Verimli, Multimodal Modeller
Yapay zeka alanındaki mevcut eğilimler, bir yandan modellerin boyut ve kapasitelerinin artmaya devam etmesi, diğer yandan da bu modellerin daha verimli ve çoklu ortam (multimodal) verileri işleyebilir hale gelmesi yönündedir.
Gelecek Eğilimleri
Ölçek Artışı
Trilyonlarca parametreli modeller
Verimlilik
Daha az kaynak tüketimi
Multimodal
Metin, görüntü, ses entegrasyonu
Multimodal modeller, yani metin, görüntü, ses ve video gibi farklı veri türlerini aynı anda anlayıp işleyebilen ve bunlardan yeni içerikler üretebilen sistemler, giderek daha fazla önem kazanıyor.
7.2. Yapay Genel Zeka (AGI) Tartışmaları ve Olasılıklar
Yapay Genel Zeka (AGI), insanlar gibi herhangi bir entelektüel görevi anlama, öğrenme ve yerine getirme yeteneğine sahip hipotetik bir YZ türüdür. Mevcut YZ sistemleri, belirli görevlerde (örneğin, satranç oynamak, görüntü tanımak, metin çevirmek) insan seviyesinde, hatta üstünde performans gösterebilse de, bunlar dar YZ (Narrow AI) veya zayıf YZ olarak kabul edilir.
AGI'nin Potansiyel Faydaları
- • Bilimsel keşiflerin hızlanması
- • Küresel sorunların çözümü
- • İnsan yeteneklerinin genişletilmesi
- • Yeni sanat ve kültür formları
AGI'nin Riskleri
- • Kontrol sorunları
- • İstihdam kaybı
- • Güç dengesizlikleri
- • Varoluşsal riskler
7.3. Etik, Güvenlik ve Toplumsal Etkiler
YZ'nin, özellikle de Generative AI ve potansiyel AGI'nin hızlı gelişimi, önemli etik, güvenlik ve toplumsal etki sorunlarını da beraberinde getiriyor.
Önyargı
Ayrımcılık riski
Gizlilik
Veri güvenliği
İstihdam
İşlerin otomasyonu
Güvenlik
Kontrol ve güvenlik
Bu sorunlarla başa çıkmak için, YZ'nin sorumlu ve güvenli bir şekilde geliştirilmesini ve dağıtılmasını sağlamak amacıyla, etik ilkelerin oluşturulması, düzenleyici çerçevelerin geliştirilmesi, teknik güvenlik önlemlerinin alınması ve toplumsal farkındalığın artırılması gerekiyor.
8. Sonuç: Nereden Geldik, Nereye Gidiyoruz?
Yapay zekanın evrimi, 1940'lardaki teorik temellerden, 1950'lerdeki ilk heyecan dalgasına, 1970'ler ve 1980'lerdeki "AI Kışları"nın getirdiği hayal kırıklıklarına, 1990'larda makine öğrenmesinin yükselişine, 2010'larda derin öğrenmenin patlamasına ve günümüzde Generative AI ve büyük dil modellerinin dönemine uzanan inişli çıkışlı bir yolculuk oldu.
Geleceğe Yönelik Öngörüler
Teknolojik İlerleme
YZ'nin daha da akıllı, daha yetenekli ve daha yaygın hale geleceği öngörülüyor
Multimodal Yetenekler
Metin, görüntü, ses ve video entegrasyonu artacak
Toplumsal Etki
Etik ve güvenlik konuları ön plana çıkacak
Nereden geldiğimizi anlamak, nereye gittiğimizi daha iyi görmemize yardımcı olabilir.