Tarih boyunca doğayı/evreni anlama çabasındaki insan, bu merakın/ihtiyacın bir sonucu olan “akıllı düzenekler”in hayalini kurdu. Özellikle savaşların, felaketlerin gölgesinde filizlenen teknoloji, bugün yapay zekanın belirleyici bir mesele hâline gelmesinde şüphesiz en önemli unsur. Tabii “doğal zeka”lı ve inatçı biliminsanları sayesinde…
Kökeni her ne kadar -ve oldukça zorlayarak- antik dönem filozoflarına ve mitolojilere dayandırılsa da, bugün tanık olduğumuz yapay zekanın (AI) en temel hâli ancak 20. yüzyıl ortalarına kadar geri götürülebilir.
Yapay zekanın onlarca sözlük tanımı var şüphesiz. Temel olarak “normalde insan aklına ihtiyaç duyulan işleri” insan olmayan bir düzeneğe yaptırma teknolojisi. Henüz modern anlamda bilgisayarlar hayatımıza girmeden çok önce, bir yapay zeka fikri ufukta görünmeye başlamıştı. İlk dönem bilgisayarlar da, insanın bilgiyi işleme ve karmaşık hesaplamaları hızlı bir doğrulukla yapabilme konusunda kendine yardımcı arayışından ortaya çıkmıştı. “İnsan gibi düşünebilen makineler”in icadının, önce insan beynini anlama ve açıklama yolundan geçtiği düşünülüyordu.
20. yüzyılın önemli biliminsanları nörofizyolog Warren S. McCulloch ve mantıkçı Walter Pitts, insan beynini açıklamak için teoriler geliştirdiler. 1943’te yayımladıkları makalede, beynin temel bileşenlerinin matematik ve mantık ile açıklanabileceğini; bilgiyi işleyebilecek, öğrenebilecek ve düşünebilecek karmaşık bir “ağ” oluşturulabileceğini söylediler; beyin hücrelerinin çalışma şeklini esas alan bir model önerdiler. Yapay zeka adımı olarak kabul edilen ilk çalışma, McCulloch ve Pitts’in bu yapay sinir hücreleri tasarımıydı.
2. Dünya Savaşı felaketi, bilimsel gelişmeleri de tetikledi. Hedefi kendisi bulan bir uçaksavar yapılmasının mümkün olup olmadığı sorusu, canlılardaki sinir sistemini bilgisayarlara uyarlayarak özyönetimli makineler yapmaya çalışan “sibernetik”in doğmasına yol açtı. Matematikçi Norbert Wiener, 1948’de bilgisayarların bir gün satranç oynayacağını ve büyük ustaları (GM) bile yenebileceğini düşünüyordu; onun çalışmaları, yapay zeka konusunda çığır açtı.
2. Dünya Savaşı sırasında Nazilerin haberleşmede kullandıkları şifreleme sistemini çözmesiyle tanınan matematikçi Alan Turing (1912-1954), 1950’de Mind dergisinde yayımlanan “Computing Machinery and Intelligence” isimli makalesinde “akıllı makineleri” tanıttı. “Makineler düşünebilir mi?” diye soruyor, elektronik bir bilgisayarı “akıllıca davranacak şekilde programlama olasılığı”ndan bahsediyor ve 5 dakika sürecek bir test öneriyordu: “Sorgulayıcı/değerlendirici” olarak tanımladığı insanın bir bilgisayar programıyla konuştuğunda, kendine cevap verenin makine olduğunu tespit edemediği ve gerçek bir insan olduğu kanaatine vardığı (yani kandırıldığı) durumda, makinenin “akıllı” olacağını öne sürüyordu. Kendi adıyla anılan Turing testi, daha sonra yapay zekanın temellerini teşkil eden bir kavrama dönüşecekti (Turing’in 1900’lerin sonuna kadar geçileceğini öngördüğü bu test, 2014’e kadar geçilemedi).
1956’da “yapay zekanın babası” sayılan matematikçi John McCarthy, Dartmouth Koleji’nde “yapay zeka” projesini başlatmak için yaklaşık 2 ay süren bir çalışma toplantısı düzenledi. Dartmouth Çalıştayı olarak da anılan bu toplantıda “yapay zeka” ifadesi ilk defa kullanıldı. Projenin hedefi, makinelerin dil kullanmasını, soyut düşünmesini, sadece insanların yapabildiği işleri yapmasını, insanların çözebildiği sorunları çözmesini ve kendilerini geliştirmelerini sağlamaktı. İlk yapay zeka programı “Logic Theorist” (Türkçeye “mantık kuramcısı” olarak çevrilmiştir) bu çalıştaydan sonra ortaya çıktı. Allen Newell, Cliff Shaw ve Herbert Simon’ın tanıttığı “Logic Theorist”, insanın problem çözme becerilerini taklit etmek, mantık teoremlerinin kanıtlarını üretmek ve Principia Mathematica’dan (matematiğin temellerini ve bazı paradoksları barındıran kitap) bazı matematik sorularını çözmek için tasarlanmıştı. Bilim tarihçileri “Logic Theorist”i insanların karmaşık sorunları çözmek için akıl yürütme yöntemlerini taklit eden ilk program olarak nitelendiriyor.
1958’de McCarthy, yapay zeka hesaplamalarında kullanılmak üzere ilk programlama dili olan LISP’i geliştirdi (ilerleyen dönemlerde LISP, yapay zeka programı yazanların en çok tercih ettiği dil olacak, bu programlama dili sayesinde ses tanıma teknolojisi gelişecek ve iPhone’un kişisel yardımcı uygulaması “Siri” ortaya çıkacaktı).
McCarthy 1961’de internet ve bulut sisteminin temeli sayılan zaman paylaşımlı (birden çok kullanıcının erişimini sağlayan) bilgisayar konseptini geliştirdi. Yine o yıllarda MIT’de bir yapay zeka projesi başlatan McCarthy, ardından Stanford Üniversitesi’ne geçerek ilk yapay zeka laboratuvarını kurdu.
Yapay zekanın ilerleyişi, mühendislik alanındaki gelişmelerle paralel olarak ilerledi. Soğuk Savaş döneminde Sovyetler ile ABD arasındaki uzay savaşı, teknoloji alanındaki gelişmelere hız kazandırıyordu.
1966’da Natural Language Processing, NLP (doğal dil işleme) programı ELIZA geliştirildi. Turing testinin yetkinliğini göstermek için üretilen ve bugün “ChatGPT” olarak bilinen sohbet robotunun erken bir versiyonu olan ELIZA’nın amacı, bilgisayar-insan arasında gerçekleşebilecek doğal dil iletişimini mümkün kılmaktı. Bu aslında bir psikoterapi programıydı; kullanıcılar soru soruyor ve ELIZA cevaplıyordu. Amaç, kişiyi en basit düzeyde gerçek bir insanla etkileşime girdiğine inandırmanın bir yolu olarak insan iletişimini taklit etmekti; fakat yalnızca kendine söylenenleri yeniden işleyerek cevap veriyordu ki bunların çoğu anlamsızdı.
1966’da bir kamerayla bilgisayarların “görmesini” sağlayan program “Computer Vision” üzerinde çalışıldı ve bir dizi deney yapıldı. Aynı yıl Richard Greenblatt, ilk satranç programı “Mac Hack 6”yı üretti. 70’lerin başlarında ilk ses tanıma programı “Hearsay 1” geliştirildi ve bilgisayarlar sesi algılamaya başladı. Bu program, modern ses tanıma sistemlerinin temelini oluşturan birçok ilkeyi ve teknolojiyi tanıtmıştı.
Yapay zekanın nasıl geliştirilebileceği ile ilgili farklı görüşler de araştırmacıların gündemindeydi. Bunun geleneksel bilgisayar algoritmasına dayanması gerektiğini söyleyen uzmanlar olduğu gibi, insan beynine benzer sinir ağlarıyla çalışması gerektiğini savunan uzmanlar da vardı.
1960’larda yapay zeka için yapılan çalışmalar ABD Savunma Bakanlığı başta olmak üzere devlet kurumları tarafından desteklendi ve dünyanın dörtbir yanında yapay zeka çalışmaları için laboratuvarlar kuruldu (bu dönemde yapılan çalışmalar, bugün teknoloji devi olan markaların temelini oluşturmaktadır). 1974’te yapay zekanın ne olduğunu anlamak ve bu alanı destekleyip desteklememe konusunda karara varmak isteyen İngiltere, matematikçi James Lighthill’e konuyla ilgili bir rapor hazırlattı. Lighthill’in eleştirileri ve daha üretim odaklı projelerin desteklenmesi gerektiğini ifade etmesi; 70’lerde tüm dünyaya yayılan ekonomik sıkıntıların da etkisiyle birleşince, yapay zeka çalışmaları için fon bulmak giderek zorlaştı. Lighthill, yapay zeka çalışmalarının çok hantal ilerlediğini, vaatlerini gerçekleştiremediğini ve zaten bir makinenin asla insan gibi düşünemeyeceğini söylüyordu. Yapay zeka araştırmacılarının imkanları çok kısıtlıydı; ellerindeki bilgisayarlar güçlü işlemcilere sahip değildi; programlama dilleri gelişmemişti ve bu yüzden çalışmalar tam manasıyla başarıya ulaşmıyordu. Yapay zeka çalışmaları için ayrılan fonlar kesildi, bu alanda çalışanlar ise başka alanlara yönelmeye başladı. Bu dönem “AI winter” (“yapay zeka kışı”) olarak adlandırılmaktadır.
1972’de yapay zeka üzerine doktorasını tamamlayan nöropsikolog Geoffrey Hinton, insan beyninin çalışma prensibinden ilham alınarak tasarlanmış “sinir ağları” üzerine çalışıyordu. Araştırmaları, çok katmanlı sinir ağları kullanarak verileri daha ileri seviyelerde işleyebilen ve anlamlandırabilen bir yapay zeka yöntemi olan “derin öğrenme” alanına öncülük edecekti.
Bu dönemde çalışmalar azalsa da, dünyada “işlem gücü” açısından büyük gelişmeler yaşanacaktı. Yapay zeka araştırmacılarının “ayağına takılan en büyük engel” olan işlem gücü geliştikçe, bunun etkisi tüm disiplinlerde görülmeye başlandı.
1980’lerin başlarında bilgisayar üreticisi Digital Equipment Corporation (DEC) tarafından kullanılan ve müşterilerin seçimlerine göre donanım öneren yapay zeka programı, firmaya 1 yılda bugünkü karşılığıyla145 milyon USD’lik bir gelir/tasarruf sağladı. Bu ticari başarı, yapay zekanın ekonomik potansiyelini de gözler önüne serdi. Alanda yapılan çalışmalar tekrar ivme kazandı ve “yapay zeka kışı” sona erdi.
90’ların sonunda yapay zeka; lojistik, “veri madenciliği” (büyük veri kümelerinden anlamlı/ değerli bilgilerin çıkarılması yöntemi) ve tıbbi tanı gibi çok farklı alanlarda uygulanmaya başladı. “Bilgisayarla görme” alanında önemli ilerlemeler kaydedildi; nesne tanıma, hareket takibi gibi konularda yeni algoritmalar geliştirildi. Doğal dil işleme alanında çalışmalar yoğunlaştı; çevrelerini algılayıp ona göre hareket edebilme yeteneği olan robotlar ortaya çıktı.
1997’de satranç oynaması için geliştirilen Deep Blue süper bilgisayarı, Dünya Satranç Şampiyonu Gari Kasparov’u yendiğinde, yapay zekanın süper beyinlere karşı bile üstünlük sağlayabileceği ortaya çıktı. 2000’lere doğru kademeli olarak toplumun her kesimine ulaşmaya başlayan internet, dünya genelinde devasa boyutta veri üretilmesine yol açtı. Bu büyük veri kümeleri, makine öğrenimi algoritmalarının daha doğru ve genelleştirilebilir modeller oluşturmasını sağladı, sağlamaya devam ediyor. İnsanlardan toplanan bu veriler (big data), çeşitli kaynaklardan (örneğin sosyal medya platformları veya alışveriş yaptığımız market uygulamaları) bireylerin davranışları, tercihleri, etkileşimleri ve diğer kişisel bilgilerden geliyor. Yapay zeka ve makine öğrenimi modellerinin eğitilmesi, doğrulanması ve geliştirilmesi için kritik öneme sahip olan bu verilerle, bugün artık bambaşka bir boyutu yaşıyoruz.