Bilişim TEKNOLOJİ

Yapay zekanın tarihçesi: Cezeri’nin robotlarından derin sinir ağlarına 1000 yıl

Dünyanın ilk bilgisayar programcısı olan Ada Lovelace'ın (1815-1852) üç boyutlu modelini bir robotla gösteren bir resim çizmesi talimatını verdiğimizde DALL-E'nin ürettiği görsel

Yapay zekanın tarihini, binlerce yıl önceki efsanelerde hayal edilen “otomatlara” kadar sürmek mümkün. Pratikte bugünkü GPT gibi büyük dil modellerinin, DeepDream gibi evrişimli sinir ağlarının ve DALL-E gibi görsel üretim amaçlı yapay zeka uygulamalarının tarihçesi ise görece yeni.

Aristo‘nun yarattığı bilgi kuramı, 8. yüzyıldan itibaren Müslüman düşünürlerce yeniden keşfedilip geliştirilerek Avrupa’ya tanıtılmıştı. 9. yüzyılda Harizmi‘nin cebir ve algoritmaları, 13. yüzyılda Cezeri‘nin programlanabilir insansı otomatı gibi icatlar, yapay zeka tarihinde dönüm noktaları oldu.

17. yüzyıldan itibaren Leibniz, Bayes, Lovelace, Boole, Shannon ve Turing gibi bilim insanları, günümüzün yapay zeka teknolojilerine varan yolu açtı. 20. yüzyılda bilgisayarın icadı ve 1956’da düzenlenen bir çalıştay, bu teknolojilerin evriminde kilit rol oynadı. Büyük Veri, akıllı algoritmalar, makine öğrenme teknikleri ve derin sinir ağları böylece doğdu.

2020’ler başlarken doğal dil işleme, görüntü üretimi, sürücüsüz araçlar ve otomatik haber yazımı gibi türlü alanlarda yapay zeka uygulamaları insan becerilerini neredeyse yakalamıştı bile. Yapay zekanın tarihçesini, Journo takipçileri için uzun bir haftasonu okuması olarak yapay zekanın da (GPT-3) yardımıyla derledik.

Yapay zekanın tarihini, farklı kültürlerin binlerce yıl önce yarattığı efsanelere kadar uzatabiliriz. Bu efsanelerde, canlı olmayan ama kendi kendine hareket edebilen, hatta düşünebilen “otomatlar” görülebiliyor. Örneğin Yunan mitolojisinde Talos, Girit adasını korumak üzere bronzdan yapılan ve yaklaşan düşmanlara kayalar fırlatan bir dev olarak hayal ediliyor.

Çok eski kaynaklarda, otomatlarla ilgili bölümlerde efsaneleri ve tarihsel olguları ayırt etmek zor. Örneğin milattan önce 900’lü yıllarda Çin’de hüküm sürdüğü bilinen Kral Mu ile ilgili yine milattan önce 300’lü yıllarda yazılan bir kaynakta, Yan Şi adlı bir mucidin bu hükümdara bir otomat hediye ettiği söyleniyor. Kendi kendine yürüyebilen bu otomatı görünce kral çok korkmuş ve az kalsın mucidi idam ettirecekmiş. Neyse ki Yan Şi atılıp otomatı parçalamış, kral da içindeki mekanik düzeneği görünce bunun bir büyü olmadığını anlayıp rahatlamış.

“Robot” sözcüğü bulunmadan çok önce bu tür icatlara otomat deniyordu. Antik Roma döneminde otomatlar büyük ölçüde oyuncak gibi ve eğlence amacıyla kullanıldı. Yunan ve Roma döneminde geliştirilen modellere dayalı makineleri Bizans ve ardından Araplar hayata geçirip geliştirdi.

Ancak bugünkü yapay zekanın tarihini efsanelerde ve eğlence amaçlı bu ilk otomatlarda değil, sistematik düşüncenin gelişiminde aramak daha doğru olur. Antik Yunan filozofları bu gelişim yolunda büyük atılımlar yapmıştı. Milattan önce 384-322 yıllarında Aristo, “tasım” kavramını ortaya atarak özgün bir bilgi kuramı ve mekanik düşünce yöntemi geliştirdi.

Romalılar, Antik Yunan’ın bilgi birikimini daha çok pratik alanlarda kullandılar. Kuramlar ve tasım gibi kavramlar konusunda pek gelişim kaydetmediler. Hrıstiyanlığın yayılması ve ardından Ortaçağ döneminde bu kuramsal bilgi birikimi neredeyse tamamen unutuldu. Tâ ki Müslüman düşünürler Yunan felsefesini yeniden keşfedip geliştirerek Avrupa’ya tanıtana kadar…  Bu yüzden yapay zekanın modern tarihini 8. yüzyıldan başlatmak yanlış olmaz.

Gelin, yapay zeka tarihini, önemli dönüm noktalarını ve öncülerini anarak inceleyelim:

8. ve 18. yüzyıllar arasında yapay zekaya giden yol

8. yüzyıl – Bugünkü Irak ve İran topraklarında yaşayan, çok sayıda Arapça eser kaleme alan Câbir İbn Hayyân, “Tekvin” adını verdiği simya kuramını geliştirdi. Bu teori, insan eliyle canlı varlıklar yaratma fikrini ortaya koydu. İbn Hayyân, kimyasal maddeleri ilk kez sistematik olarak sınıflandıran ve bitkiler gibi organik malzemelerden amonyum klorit gibi inorganik maddelerin elde edilmesini sağlayan süreçleri ilk kez tanımlayan bilim insanıydı.

820 – Bağdat’ta yaşayan Fars düşünür Hârizmî, cebiri bağımsız bir disiplin olarak geliştirdi. “Algoritma” kelimesi de Hârizmi’nin kendi isminin Latince söylenişinden kaynaklanıyor.

840 – Bağdat’ta yaşayan Fars asıllı Banu Musa kardeşler, programlanabilir müzik otomatları üretti. Bu otomatlar, mekanik ve otomatik sistemlerin tasarlanması ve inşası konusunda büyük bir atılım olarak kabul edildi ve robotik ile yapay zeka alanlarında kullanılan tekniklere öncülük etti.

1021 – Bugünkü Irak ve Mısır topraklarında yaşayan İbn-i Heysem, çalışmalarıyla modern bilimsel yöntemin kurucularından oldu. Işık üstüne çalışmaları, insan beyninin görüntüleri nasıl algıladığını da aydınlattı. Bu çalışmalar yaklaşık 1000 yıl sonraki bilgisayaları yapay zeka ve görsel tanıma çalışmalarına kaynak oluşturdu.

1206 – Cizreli Müslüman düşünür, mühendis ve mucit Cezeri, eserlerinde karmaşık makineler, su saatleri ve otomatların tasarımını belgeledi. Programlanabilir bir insansı otomat da tasarlayan Cezeri’nin çalışmaları, gelecekteki robotik ve mekanik mühendislik gelişmelerinin temelini attı.

Sibernetik ve robotiğin öncülerinden sayılan Cezeri’nin, kısaca Kitab-ül Hiyel diye bilinen eserinden, su gücüyle (hidrolik) otomatik olarak flüt çalan düzeneği gösteren çizim. Görsel: Topkapı Sarayı Müzesi

1270 – İranlı düşünür El Tusi, cisimlerin hareketini açıklamak için doğrusal fonksiyon kavramını ortaya koydu. Böylece, modern veri analizi ve yapay zeka alanında önemli rol oynayan doğrusal cebirin de temelini atmış oldu.

1300’ler – Arap hekim İbn-i El Nefis, tıp araştırmalarında bilimsel yöntem ve veri analizi kullanarak kanıta dayalı tıp ve sistematik veri toplamanın temellerini attı.

1308 – Katalan şair ve teolog Ramon Llull, Ars Generalis Ultima (Nihai Genel Sanat) adlı eserini yayımlayarak, kavramların kombinasyonlarından yeni bilgi yaratmak için kâğıt tabanlı mekanik araçlar kullanma yöntemini daha da geliştirdi.

1595 – Osmanlı gökbilimcisi ve düşünürü Takiyuddin, astronomik hesaplamalar için kullanılan analog bir bilgisayar olarak tanımlanabilecek mekanik bir saat geliştirdi. Takiyuddin, daha önce Banu Musa kardeşlerin ve Cezerî’nin saatleri ele alırken incelediği geometri-mekanik ilişkisini başarıyla çözümledi. Geliştirdiği analog hesaplama kavramı, modern bilgi işlem sistemlerinin geliştirilmesine de katkıda bulundu.

1666 – Alman matematikçi ve filozof Gottfried Leibniz, Ramon Llull’un izinden giderek insan düşüncesinin bir alfabesi olduğunu öne sürdü ve tüm fikirlerin, nispeten az sayıda basit kavramın kombinasyonlarından başka bir şey olmadığını savunduğu Dissertatio De Arte Combinatoria (Kombinatorik Sanatı Üzerine) adlı eserini yayımladı.

18. ve 19. yüzyılda yapay zekaya giden yol

1726 – İrlandalı yazar Jonathan Swift, Gulliver’in Gezileri adlı eserini yayımladı. Bu eserde, Laputa adasında bir “Makine” vardı. Bu, Llull’un fikirlerinin bir parodisiydi bu. Yani “pratik ve mekanik işlemlerle spekülatif bilgiyi geliştirme projesi…” Bu düzenek kullanılarak “en câhil kişi, mâkul bir ücret ve biraz bedensel emek karşılığında felsefe, şiir, politika, hukuk, matematik ve teoloji alanlarında kitaplar yazabilir; dehaya veya ter dökmeye pek ihtiyacı kalmaz.”

1755 – Samuel Johnson, İngiliz Dilinin Sözlüğü’nde zekâyı; “bilgi alışverişi, haber, karşılıklı iletişim, uzak veya ayrık şeylerin hesabı” olarak tanımladı.

1763 – Thomas Bayes, “olayların olasılığı hakkında akıl yürütmek” için bir çerçeve geliştirdi. Bayesci çıkarım, makine öğrenmede önde gelen bir yaklaşım hâline gelecekti.

1844 – Ada Lovelace, birlikte çalıştığı Charles Babbage’ın makinesinden yola çıkarak bilgisayarların salt hesaplamadan öte uygulamaları olabileceğini savunan ilk düşünür oldu. Lovelace bu makine için ilk algoritmayı da geliştirdiğinden, dünyanın ilk bilgisayar programcısı kabul ediliyor.

Ada Lovelace’ın bilinen iki fotoğrafından biri

1854 – George Boole, mantık yürütmenin, denklem çözmek gibi sistemli bir şekilde gerçekleştirilebileceğini savundu. Bu da yapay zekanın tarihinde çok önemli bir keşifti.

1865 – Richard Millar Devens, Ticaret ve İş Anıları Ansiklopedisi’nde banker Sir Henry Furnese’nin rakiplerinden önce bilgi alıp bunları kullanarak nasıl kâr elde ettiğini anlattı: “Hollanda, Flaman bölgesi, Fransa ve Almanya’da tam ve eksiksiz bir iş istihbaratı ağı kurmuştu.”

1898 – Nikola Tesla, o günlerde yeni tamamlanan New York’un meşhur çok amaçlı salonu Madison Square Garden’daki bir elektrik sergisinde, dünyanın ilk uzaktan kumandalı (radyo kontrolü) gemisini sergiledi. Tesla’nın deyişiyle bu gemi “ödünç alınmış bir zekâ” ile donatılmıştı.

20. yüzyılın ilk yarısında yapay zekaya giden yol

1910 – Belçikalı avukatlar Paul Otlet ve Henri La Fontaine, dünyadaki tüm bilgileri kendi ‘Evrensel Ondalık Sınıflandırması’na göre sınıflandırmaya giriştikleri Mundaneum‘u kurdu.

1914 – İspanyol mühendis Leonardo Torres y Quevedo, insan müdahalesi olmadan şah ve kale karşısında oyun sonunu oynayabilen ilk satranç yapay zekâsını sergiledi.

1920’ler – Wilhelm Lenz ve Ernst Ising ilk yinelemeli sinir ağı (RNN: recurrent neural networks) modelini tasarladı. Beyindeki nöronları taklit eden bu RNN mimarisi, “öğrenme” yeteneğine sahip değil. Shunichi Amari 1972’de RNN’yi “öğrenebilen” bir model hâline getirdi. RNN’ler gelecek yıllarda konuşma tanıma ve dil işleme tekniklerinde merkezi rol oynadı.

1921 – Çek yazar Karel Capek, R.U.R. (Rossum’un Evrensel Robotları) adlı oyununda “robot” kelimesini dünyaya tanıttı. Bu sözcük, “robota” (iş) kelimesinden kaynaklanıyor.

1925 – Telsiz şirketi Houdina Radio Control, New York sokaklarında gezen uzaktan kumandalı sürücüsüz bir otomobil yaptı.

1927 – Bilimkurgu filmi Metropolis gösterime girdi. Film, 2026 Berlin’inde kaosa yol açan köylü kızı Maria’nın robot ikizini anlatıyordu. Bu, sinemada tasvir edilen ilk robottu. Star Wars’taki C-3PO’nun art deco tarzı görünümüne de ilham verdi.

Metropolis filminden bir sahne

1929 – Makoto Nishimura, Japonca’da “doğanın yasalarından öğrenme” anlamına gelen Gakutensoku‘yu tasarladı. Bu da Japonya’da inşa edilen ilk robot oldu. Yüz ifadesini değiştirebiliyor, başını ve ellerini bir hava basıncı mekanizmasıyla hareket ettirebiliyordu.

1937 – İngiliz bilimkurgu yazarı H.G. Wells, “tüm insan hafızasının her bireye erişilebilir hâle getirilebileceğini ve bunun muhtemelen kısa süre sonra gerçekleşeceğini” öngördü. Bir başka öngörüsü şuydu: “Dünyanın herhangi bir yerindeki herhangi bir öğrencinin, kendi çalışma alanında, kendi rahatlığı için herhangi bir kitabı, herhangi bir belgeyi (mikrofilm) projektörüyle incelemesi mümkün olacak.”

1949 – Donald Hebb, sinir ağları ve sinapsların zaman içinde güçlenme veya zayıflama yeteneği hakkındaki varsayımlara dayanan öğrenme teorisi olan Davranışın Örgütlenmesi: Nöropsikolojik Bir Teori adlı kitabını yayımladı.

1950 – Modern bilgi kuramının da kurucularından olan Claude Shannon‘ın “Bir Bilgisayarı Satranç Oynamak İçin Programlama” adlı çalışması, satranç oynayan bir bilgisayar programı geliştirmek amacıyla yayımlanan ilk makale oldu.

1950 – Alan Turing, “Bilgi İşlem Makineleri ve Zeka” adlı çalışmasını yayımladı. Bu çalışmada daha sonra “Turing Testi” olarak bilinecek olan ‘taklit oyunu’nu önerdi. Turing’in çalışmaları, yapay zekanın tarihinde çığır açtı.

20. yüzyılın ikinci yarısında yapay zekaya giden yol

1951 – Marvin Minsky ve Dean Edmunds, SNARC (Stokastik Nöral Analog Takviye Hesaplayıcı) adlı ilk yapay sinir ağı olan yapıyı inşa etti. 40 nöronlu bir ağı simüle etmek için 3.000 adet vakum tüpü kullandılar.

1952 – Arthur Samuel, dama oynayan ilk bilgisayar programı ile kendi kendine öğrenebilen ilk bilgisayar programını geliştirdi.

1955 – “Yapay zeka” terimi bilimsel ortamlarda ilk kez tartışıldı. John McCarthy (Dartmouth College), Marvin Minsky (Harvard Üniversitesi), Nathaniel Rochester (IBM) ve Claude Shannon (Bell Telephone Laboratories) tarafından sunulan “yapay zeka konusunda 2 aylık, 10 kişilik bir çalışma” teklifi, bu disiplinin gelişimi için 1956 yazında Dartmouth’ta düzenlenen tarihi çalıştayda tartışıldı.

Shannon’ın Warren Weaver ile geliştirdiği iletişim modeli bugün de geçerliliğini koruyor.

1955 aralık ayı – Herbert Simon ve Allen Newell, Russell’ın Principia Mathematica’sındaki ilk 52 teoremin 38’ini kanıtlayacak olan ilk yapay zeka programı Logic Theorist‘i geliştirdiler.

1957 – Frank Rosenblatt, iki katmanlı bir bilgisayar öğrenme ağına dayalı olarak desen tanımayı mümkün kılan erken dönem yapay sinir ağı olan Perceptron’u geliştirdi. New York Times, Perceptron’un “[Donanımın] yürüyebileceğini, konuşabileceğini, görebileceğini, yazabileceğini, kendini çoğaltabileceğini ve varlığının farkında olabileceğini umduğu elektronik bir bilgisayarın embriyosu” olduğunu bildirdi. New Yorker dergisi ise onu “düşünmeye eşdeğer olan şeyler yapabilen olağanüstü bir makine” olarak nitelendirdi.

1950’lerin sonu: “Makine öğrenme” (machine learning) kavramı yaratılıyor

1958 – Hans Peter Luhn, IBM Journal of Research and Development’ta “A Business Intelligence System” başlıklı makaleyi yayımladı. Makale, bilim insanlarına ve mühendislere “güncel bilgilendirme hizmetleri sağlamak için otomatik bir yöntem” tanımladı.

1958 – John McCarthy, yapay zeka araştırmalarında en popüler programlama dili olan Lisp‘i geliştirdi.

1959 – Arthur Samuel, “makine öğrenme” terimini ortaya attı ve “programı yazan kişiden daha iyi dama oynamayı öğrenecek şekilde” bir bilgisayar programlamayı başardı.

1959 – Oliver Selfridge, düşünce süreçlerinin mekanizasyonu üzerine yapılan sempozyumda “Pandemonium: Öğrenme için bir paradigma” başlıklı makaleyi yayımladı. Bu makalede, önceden belirlenmemiş örüntüleri tanıyabilecek bir süreç için bir model tanımladı. John McCarthy da aynı sempozyumda “Sağduyulu Programlar” başlıklı makaleyi yayımladı. Burada, formal dillerde cümleleri işlemek suretiyle sorunları çözmek için tasarlanmış bir program olan Advice Taker’ı tanımladı.

1961 – İlk endüstriyel robot olan Unimate, New Jersey’deki bir General Motors fabrikasındaki montaj hattında çalışmaya başladı (altta).

1961 – James Slagle, SAINT (Sembolik Otomatik İNTegrator) adında, sembolik entegrasyon problemlerini çözen sezgisel bir program geliştirdi.

1962 – Yapay zeka tarihinde de önemli bir yeri bulunan istatistikçi John W. Tukey, Veri Analizinin Geleceği’nde şöyle yazdı: “Veri analizi ve ona bağlı istatistik kısımları, matematik özelliklerinden ziyade bilim özelliklerini benimsemelidir… veri analizi esasen ampirik bir bilimdir.”

1960’ların ilk yarısı: Asimov ve diğer bilimkurgusal öngörüler

1964 – Daniel Bobrow, MIT’deki doktora tezini “Bilgisayar Problemi Çözme Sistemi için Doğal Dil Girişi” başlığıyla tamamladı ve doğal dili anlayabilen STUDENT adlı bilgisayar programını geliştirdi.

16 Ağustos 1964 – Robotik’in Üç Kuralı’nı yaratan bilimkurgu ustası Isaac Asimov, yapay zekanın geleceğine dair öngörülerini New York Times’ta şöyle yazdı: “[1964 Dünya Fuarı’ndaki] IBM sergisi… bilgisayarlara adanmıştır ve bunlar, özellikle Rusça’dan İngilizce’ye çeviri görevinde tüm şaşırtıcı karmaşıklıklarıyla gösterilmektedir. Makineler bugün bu kadar akıllıysa, 50 yıl sonra neler olabilir? Minyatürleştirilmiş bilgisayarlar, robotların ‘beyni’ olarak hizmet verecektir… İletişim görüntülü ve sesli olacak, telefonla konuştuğunuz kişiyi görebilecek ve duyabileceksiniz. Ekranlar, sadece aradığınız kişileri görmek için değil, aynı zamanda belgeleri incelemek, fotoğrafları görmek ve kitaplardan alıntılar okumak için de kullanılabilecek.”

1965 – Herbert Simon, “yirmi yıl içinde makinelerin, bir insanın yapabileceği her işi yapabileceği” tahmininde bulundu. Hubert Dreyfus, ise”Alchemy and AI” adlı eserini yayımlayarak zihnin bir bilgisayar gibi olmadığını, yapay zekanın sınırlarının hep var olacağını savundu. I.J. Good, “İlk Ultra Zeki Makine Hakkındaki Spekülasyonlar” adlı yazısında, “ilk ultra zeki makine, insanın yapmak zorunda olduğu son icat olacak, tabii ki makine kontrol altında tutmayı nasıl başaracağımızı bize anlatmak için yeterince uysal olursa” dedi.

1965 – Joseph Weizenbaum, ELIZA adlı etkileşimli bir program geliştirdi. İnsan ve makine arasındaki iletişimin yüzeyselliğini göstermek isteyen Weizenbaum, bu kadar çok insanın bir bilgisayar programına insani duygular atfetmesine şaşırmıştı.

1965 – Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg ve Carl Djerassi, Stanford Üniversitesi’nde DENDRAL üzerinde çalışmaya başladı. Yapay zekalı ilk uzmanlık sistemi buydu. DENDRAL, organik kimyacıların karar verme süreçlerini ve problem çözme davranışlarını otomatikleştirip hipotez oluşturan ve ampirik indüksiyon modelleri kuran bir uygulama yaratmayı amaçlıyordu.

1960’ların ikinci yarısı: Genel amaçlı ve uzmanlaşmış ilk mobil robotlar

1966 – Shakey, kendi eylemleri hakkında düşünme yeteneğine sahip ilk genel amaçlı mobil robot olarak tanıtıldı (altta). 1970’te Life dergisinde yayımlanan bu “ilk elektronik kişilik” hakkındaki makalede, Marvin Minsky şu sözleriyle alıntılandı: “Üç ila sekiz yıl içinde, ortalama bir insanın genel zekasına sahip bir makineye sahip olacağız.”

1968 – Stanley Kubrick‘in yönettiği 2001: Bir Uzay Macerası adlı film gösterime girdi. Filmde HAL 9000 adlı bilinçli bilgisayar da başroldeydi. Bu film, yapay zekanın kamuoyunda tartışışmasını sağlayarak tarihe geçti.

1968 – Terry Winograd, erken dönem doğal dil anlama bilgisayar programı olarak bugün bilinen SHRDLU’yu geliştirir.

1969 – Arthur Bryson ve Yu-Chi Ho, çok aşamalı dinamik sistem optimizasyon yöntemi olarak geri yayılım (backpropagation) kavramını geliştirdi. Çok katmanlı yapay sinir ağları için bir öğrenme algoritması olan geri yayılım, 2000’ler ve 2010’lar boyunca derin öğrenmenin başarısına önemli ölçüde katkıda bulunacaktı.

1969 – Marvin Minsky ve Seymour Papert, Perceptrons: An Introduction to Computational Geometry adlı eseri yayımlayarak basit sinir ağlarının sınırlılıklarını gösterdi. 1988’de yayımlanan genişletilmiş baskıda, 1969’daki bu yorumlarının o dönemde sinir ağı araştırmaları için finansmanı önemli ölçüde azalttığı iddialarına şöyle yanıt verdiler: “1960’ların ortalarına gelindiğinde, perceptronlarla çok sayıda deney yapılmıştı ancak hiç kimse, bunların neden belirli türdeki desenleri tanıyabildiklerini ve diğerlerini tanıyamadıklarını açıklayamamıştı… Bu alandaki ilerlemenin bu kadar yavaş olmasının nedenlerinden biri, tarihle aşina olmayan araştırmacıların, kendilerinden öncekilerin yaptığı birçok hatayı yapmaya devam etmeleridir.”

1970 –İlk antropomorfik robot olan WABOT-1 Japonya’daki Waseda Üniversitesi’nde üretildi. Bu robotun bir uzuv kontrol, görüş ve konuşma sistemi vardı.

1971 – Michael S. Scott Morton, Management Decision Systems: Computer-Based Support for Decision Making adlı eseri yayımladı. Bu eserde bilgisayarların ve analitik modellerin yöneticilere kilit kararlar almalarında nasıl yardımcı olabileceği konusundaki çeşitli yollar önerildi.

1970’ler: Doğal Dil İşleme (NLP) alanının gelişimi

1972 – Ağır enfeksiyonlara neden olan bakterileri belirleyen ve antibiyotik öneren, tıp alanında uzmanlaşmış bir yapay zeka sistemi olan MYCIN Stanford Üniversitesi’nde geliştirildi.

1973 – James Lighthill, İngiliz Bilim Araştırma Konseyi’ne yapay zeka alanındaki durumu anlattı. “Şimdiye kadar yapılan keşiflerin hiçbir alanda büyük etki yaratmadığı” sonucuna varmıştı.

1976 – Bilgisayar bilimcisi Raj Reddy, “Speech Recognition by Machine: A Review” adlı makaleyi IEEE Yıllık Toplantısı Bildirileri’nde yayımlayarak Doğal Dil İşleme (NLP) alanındaki erken dönem çalışmaları özetledi.

1978 – Carnegie Mellon Üniversitesi’nde, müşterinin gereksinimlerine dayalı olarak bileşenleri otomatik olarak seçen bir kural tabanlı uzman sistem olan XCON (eXpert CONfigurer) programı geliştirildi.

1979 – Stanford Cart adlı akıllı market arabası, sandalye dolu bir odadan insan müdahalesi olmadan yaklaşık beş saatte başarıyla geçti. Bu, otonom araçlara dair erken örneklerden biri haline gelmişti (alttaki videoda).

1979 – Kunihiko Fukuşima, hiyerarşik ve çok katmanlı bir yapay sinir ağı olan neocognitron‘u geliştirdi. Evrişimli sinir ağlarına giden yolu da açan bu buluş, yapay zekanın tarihi için bir kilometre taşı oldu.

1980 – I.A. Tjomsland, Parkinson’un İlk Yasası’nı depolama endüstrisine uyguladı: “Veri, kullanılabilir alanı dolduracak şekilde genişler.”

1980 – İnsanla iletişim kurabilen, müzik partisyonunu okuyabilen ve elektronik bir orgda ortalama zorluktaki melodileri çalabilen insansı bir robot olan Wabot-2 Japonya’daki Waseda Üniversitesi’nde geliştirildi.

1980’ler: Gelişen sinir ağları, ilk otonom araç ve ilk iş zekası sistemi

1981 – Japonya Uluslararası Ticaret ve Sanayi Bakanlığı, Beşinci Nesil Bilgisayar projesi için 850 milyon dolar bütçe ayırdı. Proje; konuşmalar yapabilen, dilleri çevirebilen, resimleri yorumlayabilen ve insanlar gibi akıl yürütebilen bilgisayarlar geliştirmeyi amaçlamıştı.

1981 – Çin Yapay Zeka Derneği (CAAI) kuruldu.

1984 – Bir adam, bir kadın ve bir kişisel bilgisayar arasındaki aşk üçgenini anlatan Electric Dreams filmi gösterime girdi.

1985 – İlk iş zekası sistemi, Procter & Gamble için Metaphor Computer Systems tarafından ticari verileri ilişkilendirmek üzere geliştirildi.

1986 – Kameralar ve sensörlerle donatılmış bir Mercedes-Benz minibüs, Münih’teki Bundeswehr Üniversitesi’nde Ernst Dickmanns yönetiminde inşa edildi ve boş sokaklarda saatte 88 km hıza kadar çıktı.

1986 ekimi – David Rumelhart, Geoffrey Hinton ve Ronald Williams, makalelerinde ‘nöron benzeri birimlerin ağları için yeni bir öğrenme yöntemi olan geri yayılım‘ı tanımladı.

1980’lerin ikinci yarısı: Kurallardan olasılıklara geçiş ve ilk sohbet robotu

1987 – Apple CEO’su John Sculley‘nin Educom’daki açılış konuşmasına eşlik eden Knowledge Navigator adlı videoda, “bilgi uygulamalarının, devasa miktarda dijital bilgiye bağlı ağlar üzerinde çalışan akıllı ajanlar tarafından erişileceği” bir gelecek hayal edilmişti.

1988 – Judea Pearl, Akıllı Sistemlerde Olasılıksal Akıl Yürütme adlı kitabını yayımladı. 2011 Turing Ödülü’nün gerekçesi şöyle diyecekti: “Judea Pearl, belirsizlik altındaki bilgi işlem için temsil ve hesaplamaların temelini oluşturdu. Bayesci ağları icat etti. Bunlar, karmaşık olasılık modellerini tanımlamak için matematiksel bir biçimcilik ve bu modellerde çıkarım yapmak için kullanılan temel algoritmalardı. Bu çalışma sadece yapay zeka alanını devrimleştirmekle kalmadı, aynı zamanda mühendislik ve doğa bilimlerinin diğer dalları için de önemli bir araç hâline geldi.”

1988 – Rollo Carpenter, “ilginç, eğlenceli ve mizahi bir şekilde doğal insan sohbetini taklit etmek” amacıyla sohbet robotu (chatbot) Jabberwacky‘i geliştirdi. Bu, insan etkileşimi yoluyla yapay zeka yaratma konusundaki erken bir girişimdi.

Jabberwacky’nin arayüzü böyleydi.

1988 – IBM T.J. Watson Araştırma Merkezi üyeleri, “A statistical approach to language translation” adlı makaleyi yayımlayarak, makine çevirisinde kural tabanlı yöntemlerden olasılıksal yöntemlere geçişin habercisi olmuşlardı. Yapay zekanın tarihi seyrini değiştiren bu yaklaşım, eldeki göreve dair anlayış ve ‘kavrayış’a dayalı olmayan, bilinen örneklerin istatistiksel analizi temelinde ‘makine öğrenimi’ne genişleyen daha geniş bir değişimi yansıtıyordu. IBM’in İngilizce’den Fransızca’ya başarıyla çeviri yapan Candide projesi de bu dönemde geliştirildi.

1989 – Yann LeCun ve AT&T Bell Labs’taki diğer araştırmacılar, çok katmanlı bir sinir ağına geri yayılım algoritmasını başarıyla uygulayarak el yazısıyla yazılmış posta kodlarını bilgisayarın tanımasını sağlamışlardı. O dönemdeki donanımın sınırlamaları nedeniyle bu ağın eğitilmesi yaklaşık 3 gün sürmüştü. Ancak bu çalışma, önceki çabaların üzerinde önemli bir iyileşme sağlamıştı.

1989 martı – Tim Berners-Lee, bilgi yönetimi üstüne ‘Information Management: A Proposal’ı yazarak CERN’de dolaşıma soktu.

1990’ların ilk yarısı: İnternet ve “dönüştürücü” modeller yapay zekada devrim yaratıyor

1990 – Rodney Brooks, “Elephants Don’t Play Chess” adlı makalesini yayımlayarak yapay zekada yeni bir yaklaşım önerdi: Bu sistemlerin, özellikle robotların, çevreyle sürekli fiziksel etkileşim temelinde inşa edilmesi: “Dünya kendisinin en iyi modelidir… Püf noktası, duyuları uygun şekilde ve yeterince sıklıkta algılamaktır.”

1990 ekimi – Tim Berners-Lee, NeXT bilgisayarında WorldWideWeb adını verdiği bir tarayıcı/editör için istemci programı yazmaya başladı. WWW böyle doğdu ve kısa sürede yapay zeka tarihini için de vazgeçilmez bir değer oldu.

1991 – Juergen Schmidhuber, hasım sinir ağları (ANN: adversarial neural networks) denen tekniği geliştirdi. Bu modelde birinci ağ, belirli bir olasılık dağılımına göre çıktılar üretiyor. Diğer ağ ise çevrenin bu çıktılara olası tepkilerini öğrenip birinci ağa yanıt veriyor.

1992 – Yine Juergen Schmidhuber, 1920’lerden beri adım adım geliştirilen RNN adlı derin sinir ağı modeline bir alternatif önerdi: Dönüştürücü (Transformer). 2023 itibarıyla GPT-4 ve BERT gibi büyük dil modelleri de, 2017’de Ashish Vaswani’nin modern şekline kavuşturduğu Dönüştürücü mimarisini kullanıyor.

1993 – Vernor Vinge, “The Coming Technological Singularity” adlı eserinde, “süper insan zekâsı yaratma kapasitesine sahip teknolojilere otuz yıl içinde ulaşacağımızı” savundu: “Kısa süre sonra, insanlık çağı sona erecektir.”

Eylül 1994 – BusinessWeek, veritabanı pazarlamacılığı hakkında bir kapak dosyası yayımladı: “Şirketler sizin hakkınızda dağlar kadar bilgi topluyor, bir ürünü satın alma olasılığınızı tahmin etmek için bunları işliyor ve sizin satın almanızı sağlamak için hassas şekilde ayarlanmış bir pazarlama mesajı oluşturmak için bu bilgiyi kullanıyorlar… birçok şirket, veritabanı pazarlaması sınırını zorlamaktan başka çareleri olmadığına inanıyor.”

1995 – Richard Wallace, Joseph Weizenbaum’ın ELIZA programından ilham alarak, web’in ortaya çıkışıyla mümkün olan ölçüde doğal dil örnek verisi toplama eklentisiyle, A.L.I.C.E (Artificial Linguistic Internet Computer Entity) adlı sohbet robotunu geliştirdi.

1990’ların ikinci yarısı: “Büyük Veri” ortaya çıkıyor, yapay zeka insanı yeniyor

1996 – Stanford Üniversitesi’nin bilgisayar mühendisliği bölümünde doktora öğrencisi olan Larry Page ve Sergey Brin, Google arama motoru algoritmasını geliştirdi. İlk Google dizini 26 milyon web sayfasını tarıyordu.

1997 – Sepp Hochreiter ve Jürgen Schmidhuber, el yazısı tanıma ve konuşma tanıma alanında 20 yıl sonra bile kullanılacak olan Long Short-Term Memory (LSTM) adlı geri döngülü sinir ağını tasarladı.

1997 – Michael Cox ve David Ellsworth, IEEE 8. Görselleştirme Konferansı için hazırladıkları bildiride “büyük veri terimini ilk kez kullandı. Aslında tüm yapay zeka tarihinin, toplanabilen ve işlenebilen veri miktarıyla denk hızda ilerlediği düşünüldüğünde, bu kavramın önemi anlaşılabilir.

1997 – IBM’e ait Deep Blue, dünya satranç şampiyonunu yenen ilk yapay zeka oldu. 1996’da Deep Blue’nun ilk sürümünü yenen Garry Kasparov, bir yıl sonra geliştirilen programa 6 maçlık rövanşta yenik düştü. Karşılaşmaların 2’sini Deep Blue kazandı, 3’ü berabere bitti.

Dünya satranç şampiyonu Kasparov’a karşı Deep Blue’nun zaferi, yapay zeka tarihinin dönüm noktalarından biri kabul ediliyor.

1998 – Dave Hampton ve Caleb Chung, ilk evcil hayvan robotu olan Furby‘yi yarattı.

1998 – Yann LeCun, Yoshua Bengio ve çalışma arkadaşları, sinir ağlarının el yazısı tanımaya uygulanması ve geri yayılımın optimize edilmesi üzerine önemli teknik makaleler yayımladı.

1998 – K.G. Coffman ve Andrew Odlyzko, “The Size and Growth Rate of the Internet” başlıklı makalelerinde, ABD’deki dijital veri trafiğinin 2002 yılı civarında ses trafiğini (telefon vb.) geçeceğini öngördü.

2000’lerin başı: Derin öğrenmede yeni yöntemler, yeni robotlar ve ImageNet

2000 – Google‘ın web dizini bir milyar siteye ulaştı.

2000 – MIT’den Cynthia Breazeal, duyguları tanıyabilen ve simüle edebilen bir robot olan Kismet‘i geliştirmişti.

2000 – Honda, insan gibi yürüyebilen ve restoran ortamında müşterilere tepsiyle yemek sunabilen yapay zekalı insansı bir robot olan ASIMO’yu tanıttı.

2000 ekimi – Peter Lyman ve Hal R. Varian, UC Berkeley’de “How Much Information?” başlıklı çalışmalarında, dünya genelinde her yıl kâğıt, film, optik (CD’ler ve DVD’ler) ve manyetik gibi dört fiziksel ortamda saklanan yeni ve özgün bilgilerin (kopyalar hariç) toplam miktarını bilgisayar depolama terimleriyle ilk kez ölçtü. Çalışmaya göre 1999’da her erkek, kadın ve çocuk için yaklaşık 250 megabayt düşecek şekilde dünyada toplam 1,5 eksabayt benzersiz bilgi üretildi.

2001 -Steven Spielberg’in yönettiği A.I. (Yapay Zeka) adlı filmde David adlı çocuksu android, “sevebilen robot” imgesini işledi.

2003 – Japonya’da Takanori Shibata tarafından tasarlanan terapötik robot bebeği fok Paro, “COMDEX’in En İyileri” finalistleri arasında seçildi.

2004 – Otonom araçlar için düzenlenen ilk ödüllü yarışma olan DARPA Grand Challenge, Mojave Çölü’nde yapıldı (altta). Ama hiçbir otonom araç 241 kilometrelik parkuru tamamlayamadı.

2006 – Oren Etzioni, Michele Banko ve Michael Cafarella, ‘metin anlama’yı tamamen denetimsiz bir şekilde, yani “özerk” olarak tanımlayarak “makine okuma” terimini ortaya attı.

2006 – Geoffrey Hinton, ‘Çok Katmanlı Gösterim Öğrenme’yi yayımlayarak derin öğrenme için yeni yaklaşımlara yol açan fikirleri geliştirdi. Derin öğrenme, yapay zeka tarihinin en önemli kavram ve yöntemlerinden biri oldu.

2006 – 1956’daki meşhur çalıştayın 50. yıl dönümünde, “Dartmouth Yapay Zeka Konferansı: Gelecek 50 Yıl (AI@50)” düzenlendi. Bildiride şöyle dendi: “Son 50 yılda yapay zeka büyük başarılar elde etmesine rağmen, alan içinde hâlâ sayısız çarpıcı anlaşmazlık var. Farklı araştırma alanları sıklıkla işbirliği yapmıyor, araştırmacılar farklı yöntemler kullanıyor ve hâlâ disiplini birleştiren genel bir zeka veya öğrenme teorisi yok.”

2007 – Fei-Fei Li ve Princeton Üniversitesi’ndeki meslektaşları, görsel nesne tanıma yazılımı araştırmalarına yardımcı olması amacıyla etiketli görüntülerin büyük bir veritabanı olan ImageNeti kurdu.

2010’lara doğru: Veri “seksi” bir şey oluyor, yapay zeka ilk kez haber yazıyor

2007 – John F. Gantz, David Reinsel ve meslektaşları, “Genişleyen Dijital Evren: 2010’a Kadar Dünya Çapında Bilgi Büyümesi Tahmini” başlıklı bir makale yayımladı. Buna göre 2006’da dünya genelinde 161 eksabayt veri oluşturuldu. 2006 ile 2010 arasında, dijital evrene her yıl eklenen bilgi miktarının 988 eksabayta kadar, yani 6 kattan fazla artacağı öngörüldü. Aynı çalışmanın 2010 ve 2012’de tekrarlandığında bu tahminlerin gerçekte aşıldığı görüldü. Dünyada üretilen veri miktarı 2010’da 1.227 eksabayta, 2012’de 2.837 eksaabayta ulaşmıştı. 2020 tahmini 59.000 eksabayt olarak verildi.

2009 – Google’ın Baş Ekonomisti Hal Varian, McKinsey Quarterly’ye şunları söyledi: “Önümüzdeki 10 yılın seksi işinin istatistikçiler olacağını sürekli söylüyorum. İnsanlar bunun şaka olduğunu düşünüyor, ama kim 1990’ların seksi işinin bilgisayar mühendisleri olacağını tahmin ederdi? Verileri alabilme, anlayabilme, işleyebilme, değer çıkarabilme, görselleştirebilme ve iletebilme yeteneği önümüzdeki on yıllarda çok önemli bir beceri olacak.”

2009 – Mike Driscoll, “Veri Uzmanlarının Üç Seksi Becerisi” başlıklı yazısında şunları yazmıştır: “… Veri Çağı’nın gelmesiyle; veriyi modelleyebilen, işleyebilen ve görsel olarak iletebilenler -bunlara istatistikçi veya veri meraklıları diyebilirsiniz- en değerli varlıklar oluyor.”

2009 – Rajat Raina, Anand Madhavan ve Andrew Ng, “Grafik İşlemcileri Kullanarak Büyük Ölçekli Derin Denetimsiz Öğrenme” başlıklı makalelerinde şunu savundu: “Modern grafik işlemciler (GPU), çok çekirdekli CPU’ların hesaplama yeteneklerini açık ara geride bırakıyor ve derin denetimsiz öğrenme yöntemlerinin uygulanabilirliğinde devrim yaratma potansiyel sahip.”

2009 – Google‘ın gizlice geliştirmeye başladığı sürücüsüz araba, 2014’te Nevada’da bir ABD eyaletinin resmi sınavını geçen ilk otonom araç olacaktı (altta). Bu da yapay zeka tarihinde bir ilkti.

2009 – Northwestern Üniversitesi’nin Akıllı Bilgi Laboratuvarı’ndaki bilgisayar bilimcileri, insan müdahalesi olmadan spor haberleri yazan Stats Monkey adlı bir program geliştirdi.

2010’ların başı: Yapay zeka görselleri tanıyor, bilgi yarışmasını kazanıyor

2010 – Microsoft, hareket algılama giriş cihazına sahip Xbox 360 Kinect video oyun konsolunu piyasaya sürdü. Kullanıcıların fiziksel hareketlerini ve sesli komutlarını tanıyarak oyunları ve eğlence uygulamalarını kontrol etmeye izin veren konsol çok sattı.

2010 – Kenneth Cukier, The Economist dergisinde şunları yazdı: “… veri bilimcisi adı verilen yeni tür bir profesyonel ortaya çıktı; yazılım programcısı, istatistikçi ve hikâye anlatıcısı/sanatçı becerilerini birleştiren ve veri dağlarının altındaki altın parçalarını çıkaran kişi.”

2011 – Martin Hilbert ve Priscila Lopez, Science dergisinde “Dünyanın Teknolojik Kapasitesi: Depolama, İletişim ve Bilgi İşleme” başlıklı bir makale yayımladı. Dünyanın bilgi depolama kapasitesinin 1986 ile 2007 yılları arasında yıllık bileşik büyüme oranının %25 olduğunu tahmin ettiler. Ayrıca 1986’da tüm depolama kapasitesinin %99,2’sinin analog olduğunu, ancak 2007’de depolama kapasitesinin %94’ünün dijital olduğunu, rollerin tamamen tersine döndüğünü vurguladılar. 2002’de dijital bilgi depolaması ilk kez analogu geçmişti.

2011 – Bir evrişimli sinir ağı (CNN: convolutional neural network), %99,46 doğruluk oranıyla Alman Trafik İşareti Tanıma yarışmasını kazandı. İnsanlar %99,22 doğruluk oranıyla yapay zekanın gerisinde kalmıştı.

2011 – Doğal dilde soru cevaplayabilen bir bilgisayar olan IBM Watson, Jeopardy! (Riziko) adlı TV programında yarıştı ve dünya şampiyonlarından oluşan ekibi yenerek yapay zeka tarihine geçti.

2011 – İsviçre’deki IDSIA’da çalışan araştırmacılar, evrişimli sinir ağları kullanarak yazı tanıma hatası oranını %0,27’ye kadar indirdi.

2012 haziranı – Jeff Dean ve Andrew Ng, YouTube videolarından rastgele alınan 10 milyon etiketsiz görüntüyü çok büyük bir sinir ağına gösterdikleri bir deney yaptı: “… yapay nöronlarımızdan biri, YouTube’daki kedi videolarına güçlü bir şekilde tepki vermeyi öğrenerek bizi neşelendirdi.”

2012 – Toronto Üniversitesi’ndeki araştırmacılar tarafından tasarlanan bir evrişimli sinir ağı, ImageNet Büyük Ölçekli Görsel Tanıma Yarışı’nı sadece %15 oranında hatayla tamamladı. Bu, bir önceki yıl en iyi girişimde elde edilen %25 hata oranına göre önemli bir iyileşmeydi. Böylece metin tanımadan sonra görsel tanımada da yapay zeka büyük sıçrama kaydetmişti.

Dev şirketler büyük kaynaklar ayırıyor, insan Go oyununda da yapay zekaya yeniliyor

2011 – Apple, Siri adlı kişisel asistan ve bilgi navigasyon hizmetini, iPhone 4S modeliyle piyasaya sürdü (altta). Siri, kullanıcıların doğal dilde sorular sormasına ve komutlar vermesine olanak tanıyan bir sesli asistan.

2012 – Google, Andrew Ng ve Jeff Dean’in liderliğinde Google Brain adlı araştırma ekibini kurdu. Bu proje, büyük ölçekli derin öğrenme algoritmalarını kullanarak Google’ın ürünlerinde ve hizmetlerinde yapay zeka uygulamalarını geliştirmeyi amaçlıyor.

2014 – Facebook, DeepFace adlı yüz tanıma sistemi hakkında bir makale yayımladı. Bu sistem, insanların yüzlerini yüksek doğrulukla tanıyabilen ve insan benzeri doğruluk düzeylerine ulaşabilen derin öğrenme tekniklerini kullanıyordu.

2014: 1991’de geliştirilen ANN tekniğinin ilkelerini uygulayan Ian Goodfellow ve arkadaşları, çekişmeli üretici ağ” (GAN) adlı yeni bir teknik buldu. Bu teknikle “deep fake” denilen gerçekçi görüntüler üretilebiliyordu.

2015 – Google’ın satın aldığı İngiltere merkezli DeepMind şirketinin geliştirdiği AlphaGo adlı yapay zeka, Go oyununda dünya şampiyonu olan Lee Sedol’u yenen ilk bilgisayar programı oldu. Yapay zeka tarihinde bir başka kilometre taşı böylece geride bırakılmıştı.

Yapay zeka, ChatGPT ve Midjourney gibi uygulamalarla milyonlara açılıyor

2015 – Gelecek yıllarda çok konuşulacak OpenAI adlı araştırma laboratuvarı ABD’de kuruldu.

2018 – Google Duplex, Google Asistan’ın doğal dil işleme ve derin öğrenme teknikleri kullanarak telefon görüşmeleri gerçekleştirebildiği bir özellik olarak tanıtıldı. Duplex ile kullanıcılar telefonda otomatik olarak randevu alıp rezervasyon yaptırabiliyordu.

2019 – ABD Bilgisayar ve Makineler Derneği (ACM), derin sinir ağlarını hesaplamanın kritik bir bileşeni haline getiren kavramsal ve mühendislik başarıları için Yoshua Bengio, Geoffrey Hinton ve Yann LeCun‘a ACM A.M. Turing Ödülü’nü verdi. ACM Başkanı Cherri M. Pancake, “Yapay zeka, şimdi tüm bilimde en hızlı büyüyen alanlardan biri ve toplumda en çok konuşulan konulardan . Bu büyüme ve ilgi, büyük ölçüde Bengio, Hinton ve LeCun’un temelini attığı derin öğrenme alanındaki son ilerlemelerden kaynaklanmaktadır. Bu teknolojiler milyarlarca insan tarafından kullanılıyor” dedi.

2020 – OpenAI, GPT-3 modelini tanıttı. Bu model, doğal dil anlama ve üretimi için yeni bir standart belirledi. GPT-3; sadece düz yazıyı değil, şiir ve kod gibi daha birçok alanda metin üretimini insanlardan ayırt etmesi zor biçimde yapabiliyordu.

2020 – OpenAI, DALL-E‘yi duyurdu. DALL-E, metin açıklamalarını görsel imgelere dönüştüren bir sinir ağı modeli olarak kısa sürede yaygınlaştı.

2022 temmuzu – DALL-E gibi, doğal dil talimatlarıyla görsel üretebilen Midjourney‘nin beta sürümü halka açıldı ve büyük ilgi çekti.

2022 ağustosu – “Derin üretici sinir ağı” olarak tanımlanan modellerden bir başkasını yaratan Stable Diffusion halka açıldı. DALL-E ve Midjourney’nin aksine bu uygulama sadece bulut hizmetleri kullanılarak üzerinden değil, ortalama bir ev bilgisayarının kendi grafik işleme kapasitesiyle de çalıştırılabiliyor.

2022 ağustosu – Facebook’un sahibi Meta şirketi, GPT-3’e alternatif olarak geliştirdiği yapay zeka modelini kullanan Blenderbot 3’ü tanıttı.

2022 kasımı – OpenAI, GPT-3 dil modelini tüm dünyanın kullanımına ChatGPT adlı sohbet robotuyla açtı. 2023 martında modelin sadece metin değil, görsel girdiler de kabul etmesine imkân tanıyan GPT-4 sürümü piyasaya sürüldü.

2023 martı – LaMDA adlı büyük dil modelini kullanan Google Bard sohbet robotu kısıtlı bir kullanıcı kitlesine açıldı.

Yapay zeka tarihinde sinir ağı mimarisi öncüleri:

Model Adı Model Türü Ana Özellikler İlk Yayın Tarihi
MLP Çok Katmanlı Algılayıcı Temel yapay sinir ağı modeli, doğrusal olmayan işlevler 1980’ler
RNN Yinelemeli Sinir Ağı Zaman serisi verileri için, iç durumlarla hafıza mekanizması 1980’ler
TDNN Zaman Gecikmeli Sinir Ağı Ses ve zaman serisi verileri için, yerel bağlantılar 1989
GRNN Genelleştirilmiş Regresyon Sinir Ağı Düşük gürültülü, hızlı ve doğrusal olmayan regresyon 1991
LSTM Uzun Kısa Vadeli Bellek RNN’nin uzun süreli bağımlılıkları öğrenen geliştirilmiş sürümü 1997
PNN İlgiselleştirmeli Sinir Ağı İstatistiksel yaklaşımlarla, ağırlıklı radyal tabanlı işlevler 1990’lar
BRNN Çift Yönlü Geri Beslemeli Sinir Ağı İleri ve geri yönde bilgi işleme, daha iyi bağlam modelleme 1997
CNN Evrişimli Sinir Ağı Görüntü işleme ve sınıflandırma için, öznitelik haritaları 1998
FNN Beslemeli İleri Sinir Ağı RNN’nin bağlantısız versiyonu, daha basit ve hızlı 2000’ler
SNN Sürekli Sinir Ağı Biyolojik olarak uyumlu, zamanı sürekli olarak işleyen ağ 2000’ler
VAE Varyasyonel Otoenkoder Veri üretme ve öğrenme için olasılık tabanlı model 2013
GAN Üretici Çekişmeli Ağlar Yeni veri örnekleri üretme, gerçekçi görüntüler 2014
Transformer Transformer Özdikkat mekanizması, dil modelleme ve çeviri için 2017
DAN Deformasyon Uyarlamalı Ağlar Görüntü hizalaması, çeşitli görevler için özuyumlu 2017

Günümüzün başlıca büyük dil modellerinin tarihçesi:

Model Adı Model Türü Ana Özellikler Yayın Tarihi
BERT Dil Modeli İkili dil modeli, metin anlayışı, soru-cevap 2018
GPT-2 Dil Modeli 1.5B parametre, dil üretme ve anlama yeteneği 2019
T5 (Text-to-Text) Dil Modeli Metinden metine dönüşüm, çeşitli görevler 2019
GPT-3 Dil Modeli 175B parametre, dil üretme ve anlama yeteneği 2020
OpenAI Codex Kod Üretici 12B parametre, doğal dil işleme, kod yazma 2021
GPT-4 Dil Modeli İyileştirilmiş dil modeli, sohbet ve anlama yeteneği 2022

Günümüzün başlıca görsel üreticilerinin tarihçesi:

Model Adı Model Türü Ana Özellikler İlk Yayın Tarihi
ImageNet Veritabanı Makine öğrenme için insanların işaretlediği 14 milyondan fazla görüntü 2009
AlexNet Evrişimli Sinir Ağı ImageNet veritabanını %15 hatayla tanıyıp ilk rekoru kıran model 2012
DeepDream Evrişimli Sinir Ağı Desenleri tespit edip görüntüleri rüya gibi bir tarzda geliştirir 2015
DALL-E Görsel Üretici Resim üretme, doğal dil ve görsel sembollerin kombinasyonu 2021
CLIP Metin ve Görsel İşlemcisi Metin ve görüntüler arasında eşleştirme ve anlama yeteneği 2021
VQ-VAE-2 Vektör Kuantize Edilmiş Varyasyonel Otoenkoder Yüksek çözünürlüklü görüntü üretme, hiyerarşik tasarım 2019
Stable Diffusion Difüzyon Modelleri Gürültüyle başlayarak görüntü üretme, yüksek kaliteli görseller 2021
Midjourney Üretici Yapay Zeka (GenAI) Doğal dille verilen talimatlarla görseller ve sanat eserleri üretir 2022

Günümüzün başlıca makine öğrenme kütüphaneleri:

Kütüphane Adı Kütüphane Türü Ana Özellikler İlk Yayın Tarihi
scikit-learn Makine Öğrenimi Kütüphanesi Sınıflandırma, regresyon ve kümeleme gibi temel algoritmalar Haziran 2007
Caffe Derin Öğrenme Kütüphanesi Görüntü sınıflandırma ve konvolüsyonel ağları optimizasyonu Nisan 2014
XGBoost Gradient Boosting Kütüphanesi Ağaç tabanlı modeller, hızlı ve ölçeklenebilir Mart 2014
TensorFlow Derin Öğrenme Kütüphanesi Google tarafından geliştirildi, esnek ve ölçeklenebilir Kasım 2015
MXNet Derin Öğrenme Kütüphanesi Amazon tarafından destekleniyor, çok dilli API Ekim 2015
Keras Derin Öğrenme API TensorFlow üzerinde çalışan, kullanıcı dostu API Mart 2015
PyTorch Derin Öğrenme Kütüphanesi Facebook tarafından geliştirildi, dinamik hesap grafiği Ekim 2016
LightGBM Gradient Boosting Kütüphanesi Microsoft tarafından geliştirildi, hafif ve hızlı Kasım 2016
CatBoost Gradient Boosting Kütüphanesi Yandex tarafından geliştirildi, kategorik veri desteği Temmuz 2017

ChatGPT’nin yaratıcılarına göre yapay zekânın en çok etkileyeceği mesleklerden biri gazetecilik

ChatGPT: Yapay zekâ ile medya eskisi gibi olmayacak

Türkiye’de basın özgürlüğünü sorduk, yapay zekâ yanıtladı: “Yalan haber büyük sorun, hükûmet sansürü endişelendiriyor”

Bu haber görselini yapay zekâ üretti: DALL-E gazetecilik için tehdit mi, fırsat mı?

Araştırmacı gazetecilik yapay zekâyla ölçüldü: Durum o kadar kötü değil

MIT araştırması: Yapay zekâyı eğitmekte kullanılan en popüler veri kümeleri hatalı

Journo

Yeni nesil medya ve gazetecilik sitesi. Gazetecilere yönelik bağımsız bir dijital platform olan Journo; medyanın gelir modellerine, yeni haber üretim teknolojilerine ve medya çalışanlarının yaşamına odaklanıyor, sürdürülebilir bir sektör için çözümler öneriyor.

Journo E-Bülten