Ekim 2024 Sayımız Çıktı

Başarısızlıkla dolu bir yolda pes etmeyenlerin öngörüsü

1940’LARDAN GÜNÜMÜZE YAPAY ZEKA

Tarih boyunca doğayı/evreni anlama çabasındaki insan, bu merakın/ihtiyacın bir sonucu olan “akıllı düzenekler”in hayalini kurdu. Özellikle savaşların, felaketlerin gölgesinde filizlenen teknoloji, bugün yapay zekanın belirleyici bir mesele hâline gelmesinde şüphesiz en önemli unsur. Tabii “doğal zeka”lı ve inatçı biliminsanları sayesinde…

Kökeni her ne kadar -ve oldukça zorlayarak- an­tik dönem filozoflarına ve mitolojilere dayandırılsa da, bugün tanık olduğumuz yapay zekanın (AI) en temel hâli ancak 20. yüzyıl ortalarına kadar geri götürülebilir.

Yapay zekanın onlarca sözlük tanımı var şüphesiz. Temel olarak “normalde insan aklına ihtiyaç duyulan işleri” insan olmayan bir düzeneğe yaptırma teknolojisi. Henüz modern anlamda bilgisa­yarlar hayatımıza girmeden çok önce, bir yapay zeka fikri ufukta görünmeye başlamıştı. İlk dönem bilgisayarlar da, insanın bilgiyi işleme ve karmaşık hesaplama­ları hızlı bir doğrulukla yapabil­me konusunda kendine yardımcı arayışından ortaya çıkmıştı. “İnsan gibi düşünebilen makine­ler”in icadının, önce insan beyni­ni anlama ve açıklama yolundan geçtiği düşünülüyordu.

20. yüzyılın önemli bilimin­sanları nörofizyolog Warren S. McCulloch ve mantıkçı Walter Pitts, insan beynini açıklamak için teoriler geliştirdiler. 1943’te yayımladıkları makalede, beynin temel bileşenlerinin matematik ve mantık ile açıklanabileceğini; bilgiyi işleyebilecek, öğrenebile­cek ve düşünebilecek karmaşık bir “ağ” oluşturulabileceğini söylediler; beyin hücrelerinin çalışma şeklini esas alan bir mo­del önerdiler. Yapay zeka adımı olarak kabul edilen ilk çalışma, McCulloch ve Pitts’in bu yapay sinir hücreleri tasarımıydı.

Kapak-Dosyasi-Seher-2
Yapay zeka alanında çalışan Marvin Minsky, Claude Shannon, Ray Solomonoff ve “yapay zeka”nın temelinin atıldığı Dartmouth Çalıştayı’ndaki diğer biliminsanları, 1956.

2. Dünya Savaşı felaketi, bilimsel gelişmeleri de tetikledi. Hedefi kendisi bulan bir uçaksa­var yapılmasının mümkün olup olmadığı sorusu, canlılardaki si­nir sistemini bilgisayarlara uyar­layarak özyönetimli makineler yapmaya çalışan “sibernetik”in doğmasına yol açtı. Matematikçi Norbert Wiener, 1948’de bilgisa­yarların bir gün satranç oyna­yacağını ve büyük ustaları (GM) bile yenebileceğini düşünüyordu; onun çalışmaları, yapay zeka konusunda çığır açtı.

2. Dünya Savaşı sırasında Na­zilerin haberleşmede kullandık­ları şifreleme sistemini çözme­siyle tanınan matematikçi Alan Turing (1912-1954), 1950’de Mind dergisinde yayımlanan “Com­puting Machinery and Intelli­gence” isimli makalesinde “akıllı makineleri” tanıttı. “Makineler düşünebilir mi?” diye soruyor, elektronik bir bilgisayarı “akıllıca davranacak şekilde programla­ma olasılığı”ndan bahsediyor ve 5 dakika sürecek bir test öneriyor­du: “Sorgulayıcı/değerlendirici” olarak tanımladığı insanın bir bilgisayar programıyla konuş­tuğunda, kendine cevap verenin makine olduğunu tespit edeme­diği ve gerçek bir insan olduğu kanaatine vardığı (yani kandırıl­dığı) durumda, makinenin “akıllı” olacağını öne sürüyordu. Kendi adıyla anılan Turing testi, daha sonra yapay zekanın temellerini teşkil eden bir kavrama dönüşe­cekti (Turing’in 1900’lerin sonu­na kadar geçileceğini öngördüğü bu test, 2014’e kadar geçilemedi).

1956’da “yapay zekanın ba­bası” sayılan matematikçi John McCarthy, Dartmouth Koleji’nde “yapay zeka” projesini başlatmak için yaklaşık 2 ay süren bir çalış­ma toplantısı düzenledi. Dart­mouth Çalıştayı olarak da anılan bu toplantıda “yapay zeka” ifadesi ilk defa kullanıldı. Projenin he­defi, makinelerin dil kullanma­sını, soyut düşünmesini, sadece insanların yapabildiği işleri yapmasını, insanların çözebildiği sorunları çözmesini ve kendile­rini geliştirmelerini sağlamaktı. İlk yapay zeka programı “Logic Theorist” (Türkçeye “mantık kuramcısı” olarak çevrilmiştir) bu çalıştaydan sonra ortaya çıktı. Allen Newell, Cliff Shaw ve Herbert Simon’ın tanıttığı “Logic Theorist”, insanın problem çözme becerilerini taklit etmek, mantık teoremlerinin kanıtlarını üretmek ve Principia Mathemati­ca’dan (matematiğin temellerini ve bazı paradoksları barındıran kitap) bazı matematik sorula­rını çözmek için tasarlanmıştı. Bilim tarihçileri “Logic Theorist”i insanların karmaşık sorunları çözmek için akıl yürütme yön­temlerini taklit eden ilk program olarak nitelendiriyor.

1958’de McCarthy, yapay zeka hesaplamalarında kullanılmak üzere ilk programlama dili olan LISP’i geliştirdi (ilerleyen dönem­lerde LISP, yapay zeka programı yazanların en çok tercih ettiği dil olacak, bu programlama dili sayesinde ses tanıma teknolojisi gelişecek ve iPhone’un kişisel yardımcı uygulaması “Siri” orta­ya çıkacaktı).

Kapak-Dosyasi-Seher-3
Satranç oyunu için geliştirilen Deep Blue, Dünya Satranç Şampiyonu Gari Kasparov’u yeniyor, Mayıs 1997.

McCarthy 1961’de internet ve bulut sisteminin temeli sayılan zaman paylaşımlı (birden çok kullanıcının erişimini sağlayan) bilgisayar konseptini geliştirdi. Yine o yıllarda MIT’de bir yapay zeka projesi başlatan McCarthy, ardından Stanford Üniversi­tesi’ne geçerek ilk yapay zeka laboratuvarını kurdu.

Yapay zekanın ilerleyişi, mü­hendislik alanındaki gelişmelerle paralel olarak ilerledi. Soğuk Savaş döneminde Sovyetler ile ABD arasındaki uzay savaşı, tek­noloji alanındaki gelişmelere hız kazandırıyordu.

1966’da Natural Langua­ge Processing, NLP (doğal dil işleme) programı ELIZA gelişti­rildi. Turing testinin yetkinliğini göstermek için üretilen ve bugün “ChatGPT” olarak bilinen sohbet robotunun erken bir versiyonu olan ELIZA’nın amacı, bilgisa­yar-insan arasında gerçekle­şebilecek doğal dil iletişimini mümkün kılmaktı. Bu aslında bir psikoterapi programıydı; kul­lanıcılar soru soruyor ve ELIZA cevaplıyordu. Amaç, kişiyi en basit düzeyde gerçek bir insanla etkileşime girdiğine inandır­manın bir yolu olarak insan iletişimini taklit etmekti; fakat yalnızca kendine söylenenleri ye­niden işleyerek cevap veriyordu ki bunların çoğu anlamsızdı.

1966’da bir kamerayla bilgi­sayarların “görmesini” sağlayan program “Computer Vision” üze­rinde çalışıldı ve bir dizi deney yapıldı. Aynı yıl Richard Greenb­latt, ilk satranç programı “Mac Hack 6”yı üretti. 70’lerin başla­rında ilk ses tanıma programı “Hearsay 1” geliştirildi ve bilgi­sayarlar sesi algılamaya başladı. Bu program, modern ses tanıma sistemlerinin temelini oluştu­ran birçok ilkeyi ve teknolojiyi tanıtmıştı.

Yapay zekanın nasıl geliştiri­lebileceği ile ilgili farklı görüşler de araştırmacıların gündemin­deydi. Bunun geleneksel bilgi­sayar algoritmasına dayanması gerektiğini söyleyen uzmanlar olduğu gibi, insan beynine benzer sinir ağlarıyla çalışması gerektiğini savunan uzmanlar da vardı.

Kapak-Dosyasi-Seher-4
Digital Equipment Corporation (DEC) şirketinin kurucusu Ken Olsen, yapay zekanın ticari faydasını farkeden ilk işinsanlarından.

1960’larda yapay zeka için yapılan çalışmalar ABD Savun­ma Bakanlığı başta olmak üzere devlet kurumları tarafından desteklendi ve dünyanın dörtbir yanında yapay zeka çalışmaları için laboratuvarlar kuruldu (bu dönemde yapılan çalışmalar, bugün teknoloji devi olan mar­kaların temelini oluşturmak­tadır). 1974’te yapay zekanın ne olduğunu anlamak ve bu alanı destekleyip desteklememe ko­nusunda karara varmak isteyen İngiltere, matematikçi James Li­ghthill’e konuyla ilgili bir rapor hazırlattı. Lighthill’in eleştirileri ve daha üretim odaklı projelerin desteklenmesi gerektiğini ifade etmesi; 70’lerde tüm dünyaya yayılan ekonomik sıkıntıların da etkisiyle birleşince, yapay zeka çalışmaları için fon bul­mak giderek zorlaştı. Lighthill, yapay zeka çalışmalarının çok hantal ilerlediğini, vaatlerini gerçekleştiremediğini ve zaten bir makinenin asla insan gibi düşünemeyeceğini söylüyordu. Yapay zeka araştırmacılarının imkanları çok kısıtlıydı; ellerin­deki bilgisayarlar güçlü işlemci­lere sahip değildi; programlama dilleri gelişmemişti ve bu yüz­den çalışmalar tam manasıyla başarıya ulaşmıyordu. Yapay zeka çalışmaları için ayrılan fonlar kesildi, bu alanda çalışan­lar ise başka alanlara yönelmeye başladı. Bu dönem “AI winter” (“yapay zeka kışı”) olarak adlan­dırılmaktadır.

1972’de yapay zeka üzeri­ne doktorasını tamamlayan nöropsikolog Geoffrey Hinton, insan beyninin çalışma prensi­binden ilham alınarak tasar­lanmış “sinir ağları” üzerine çalışıyordu. Araştırmaları, çok katmanlı sinir ağları kullana­rak verileri daha ileri seviyeler­de işleyebilen ve anlamlandı­rabilen bir yapay zeka yöntemi olan “derin öğrenme” alanına öncülük edecekti.

Bu dönemde çalışmalar azalsa da, dünyada “işlem gücü” açısından büyük gelişmeler ya­şanacaktı. Yapay zeka araştır­macılarının “ayağına takılan en büyük engel” olan işlem gücü geliştikçe, bunun etkisi tüm di­siplinlerde görülmeye başlandı.

1980’lerin başlarında bilgisa­yar üreticisi Digital Equipment Corporation (DEC) tarafından kullanılan ve müşterilerin se­çimlerine göre donanım öneren yapay zeka programı, firmaya 1 yılda bugünkü karşılığıyla145 milyon USD’lik bir gelir/tasar­ruf sağladı. Bu ticari başarı, ya­pay zekanın ekonomik potan­siyelini de gözler önüne serdi. Alanda yapılan çalışmalar tekrar ivme kazandı ve “yapay zeka kışı” sona erdi.

90’ların sonunda yapay zeka; lojistik, “veri madenciliği” (bü­yük veri kümelerinden anlamlı/ değerli bilgilerin çıkarılması yöntemi) ve tıbbi tanı gibi çok farklı alanlarda uygulanmaya başladı. “Bilgisayarla görme” alanında önemli ilerlemeler kaydedildi; nesne tanıma, ha­reket takibi gibi konularda yeni algoritmalar geliştirildi. Doğal dil işleme alanında çalışmalar yoğunlaştı; çevrelerini algılayıp ona göre hareket edebilme ye­teneği olan robotlar ortaya çıktı.

1997’de satranç oynaması için geliştirilen Deep Blue süper bilgi­sayarı, Dünya Satranç Şampiyo­nu Gari Kasparov’u yendiğinde, yapay zekanın süper beyinlere karşı bile üstünlük sağlayabile­ceği ortaya çıktı. 2000’lere doğru kademeli olarak toplumun her kesimine ulaşmaya başlayan internet, dünya genelinde devasa boyutta veri üretilmesine yol açtı. Bu büyük veri kümeleri, ma­kine öğrenimi algoritmalarının daha doğru ve genelleştirilebilir modeller oluşturmasını sağladı, sağlamaya devam ediyor. İnsan­lardan toplanan bu veriler (big data), çeşitli kaynaklardan (ör­neğin sosyal medya platformları veya alışveriş yaptığımız market uygulamaları) bireylerin dav­ranışları, tercihleri, etkileşim­leri ve diğer kişisel bilgilerden geliyor. Yapay zeka ve makine öğrenimi modellerinin eğitilme­si, doğrulanması ve geliştirilme­si için kritik öneme sahip olan bu verilerle, bugün artık bambaşka bir boyutu yaşıyoruz.