Dijital medyada son günlerin en heyecan verici gelişmelerinden biri, GPT-3 adlı yapay zekâ algoritmasının artık daha da “insansı” metinler yazabilmesi. Öyle ki ABD’de bir üniversite öğrencisinin bu programa yazdırdığı bir blog yazısı, yapay zekânın eseri olduğu fark edilmeden bir haber sitesinin manşetine taşındı.
Peki, son yıllarda gazetecilikte de yaygınlaşan yapay zekâ uygulamaları nereye gidiyor? Prof. Dr. Cem Say, “‘Bir Yılmaz Özdil programı yazdırmak istiyorum’ diye bizim bilgisayar mühendisliğindeki program yeteneği olan çocuklar arasında bir dolaşın derim. Demek ki sizin işinizin de bir otomatik tarafı varmış” diyor.
Şimdiden Yılmaz Özdil tarzı köşe yazısı yazma programı var sahiden. Ancak özellikle Türkçe yapay zekâda henüz yolun çok başındayız. Ayrıca gazetecilerin, diğer birçok mesleğe kıyasla, yapay zekâ karşısında avantajlı olduğu da söyleniyor. Doç. Dr. Berrin Kalsın’a göre gazetecilerin mevcut görevlerinin sadece yüzde 8 ila 12’sini gelecekte algoritmalar üstlenecek.
Yapay zekâ, çeşitli bilişsel etkinliklerin doğal olmayan sistemler tarafından yapılabilirliğini inceleyen bir araştırma alanı. Önemli başarılara imza attığını bilgisayar ve cep telefonlarında kullandığımız Google Maps, çeviri programları, oyunlar vb. onlarca uygulamadan görmek mümkün.
İnsanların yaptığı bazı işlerin, özellikle de bilişsel işlerin makine ve yazılımlar tarafından yapılması büyük bir teknolojik atılım, ancak toplumsal etkileri bir o kadar tartışmalı. Buna gazetecilik alanı da dâhil.
Sayısal verilerden haber yapan robot gazeteciler
Yapay zekâ çok sayıda bilişsel işi yaptığına göre neden haber yazamasın?
Yapay zekâ ile haber üretiminin ya da daha yaygın tabirle robot gazeteciliğin miladı 2006 yılında Thomson Reuters’ın finans haberlerini derlemek için algoritmaları kullanacağını açıklaması oldu. 2010 yılında ise Statsheet (şirketin şimdiki adı Automated Insights), ABD’deki üniversite basketbol takımlarının aylık 15 binden fazla maç haberini bir yazılım aracılığı ile hazırladı.
Gazeteciliğin birçok aşamasında yapay zekâ uygulamalarından yararlanılsa da en kritik konu haber içeriğinin üretimi. Çünkü gazete, televizyon, internet sitesi ya da sosyal medyada düzenli bir izleyici kitlesine sahip olmak için istikrarlı ve güvenilir haber üretimi belirleyici önemde.
Bugün gelinen aşamada robot gazeteciler finans, emlak, hava durumu, polis-adliye ve spor gibi kategorilerde haber yazabiliyor. Hepsinin temel unsuru sayısal veriler. Kullanılan algoritma binlerce haberi inceleyerek hangi verilere karşılık ne tür değerlendirmeler yapıldığını eşleştiriyor.
Örneğin bir futbol maçı 4 ya da daha fazla gol farkı ile sonuçlanmışsa, genellikle bu maçların haberlerinde “bol gollü bir maç” olduğu, eğer goller erken geldiyse galip takımın “maçta önemli bir üstünlük kurduğu” gibi cümlelerin geçmesi muhtemel. Ya da gollerin hangi oyuncu tarafından maçın kaçıncı dakikasında atıldığı kalıp bir cümle ile ifade edilebilir ve haberlerin çoğunda benzerdir. Bir kullanıcı; basketbol, futbol ya da beyzbol maçları ve takımlar hakkında sayısal verileri sisteme girdiğinde, insan gazeteciler tarafından yapılmış maç haberlerine oldukça benzer haberler yazılabiliyor.
Wordsmith örneği
Robot gazetecileri ilk kullananlardan biri ABD merkezli Associated Press (AP) oldu. AP 2014 yılında Automated Insights ile yaptığı işbirliği sonucu şirketlerin üç aylık finansal raporlarını otomatik olarak haberleştireceğini açıkladı.
Anlaşmadan önce AP sadece 300 finansal rapor haberi hazırlama kapasitesine sahipti. Bu yenilikle birlikte AP, manuel üretime kıyasla yaklaşık 15 kat artışla 4 bin 400 finansal rapor haberi üretebilir hâle geldi.
Automated Insights’ın Wordsmith uygulaması, yapılandırılmış veriyi anlatıya/metne dönüştürmek için doğal dil işleme algoritmasını kullanan bir haber üretim platformu. Finansal raporlar söz konusu olduğunda Wordsmith, ham verileri saniyeler içinde habere dönüştürüyor.
Başka bir örnek BBC News’tan. BBC’nin İngiltere’de 2019 yılında yapılan genel seçim sonuçlarına ilişkin yayımladığı 700 haber bir bilgisayar tarafından yazıldı. Bu, BBC tarihinin robot gazetecilikteki en büyük sınavıydı.
BBC News Labs editörü Robert McKenzie, “Makine yardımını kullanarak, henüz sayımı bitirmemiş olanlar hariç, dün gece ilan edilen her seçim bölgesi için bir haber oluşturduk. İnsanlarla bu asla mümkün olmazdı” dedi.
Buna karşın yapay zekânın BBC için yazdığı tüm haberlerin, yayına girmeden önce bir insan editör tarafından kontrol edildiğini de not etmek gerekiyor.
Gazeteciler için 7 adımda yapay zekâ: BBC haberlerini robot yazdı
Bloomberg’in Cyborg isimli yazılımı binlerce şirketin bilanço ve raporlarını inceleyip kritik veri noktalarını tespit ettikten sonra saniyeler içinde haber yazıp başlık atabiliyor.
İngiltere Basın Derneği’nin RADAR’ı da, bu örgütün Urbs Media ile birlikte kurduğu bir sistem. İlk üç ayında otomatik olarak 50 bini aşkın yerel haber yazdı.
Yapay zekâ sadece yazmıyor, haber topluyor ve dağıtıyor
Yapay zekâ sadece içerik üretimi değil, haberin toplama ve dağıtım aşamalarında da kullanılıyor.
The Canadian Press, çevirileri hızlandırmak için yapay zekâya dayalı bir sistem geliştirdi. Derin öğrenme teknolojisi kullanan DeepL; İngilizce, Fransızca, Almanca, İspanyolca, Portekizce, İtalyanca, Hollandaca, Lehçe ve Rusça’ya otomatik tercüme yapıyor ve Avrupa’da çok sayıda yayıncı tarafından kullanılıyor.
Son yıllarda sinir ağı mimarisine geçerek Türkçe dâhil tüm dillerde daha da isabetli çeviriler yapabilen Google Translate de haber girdilerinin toplanması sırasında dil bariyerini aşmada gazetecilere yardımcı oluyor.
Yapay zekâ teyit için de önemli, ama sınırları var
Günümüzün en büyük problemlerinden biri de fotoğraf, video ve yazılı belgelerin gerçek olup olmadığının tespit edilmesi. Gelişen teknolojiler maalesef daha “kaliteli” sahte belgelerin üretimini mümkün kıldı. İşte bu nedenle Agence France Presse (AFP) bir süredir fotoğrafların gerçek olup olmadığını tespit etmek için yapay zekânın kullanıldığı uygulamalardan yararlanıyor.
Birçok haber kuruluşu robot gazeteciliği daha hızlı ve çok sayıda veri odaklı haberi üretmek için kullanıyor. Ancak bu olanak henüz yazılımların maliyetlerini karşılayabilecek büyük medya şirketleri ile sınırlı.
Bunun yanı sıra robot gazeteciliğin kendisinden kaynaklı sınırlar da mevcut. Onun en büyük gücü olan geçmişte yapılmış haberi analiz ederek hızla ve çok sayıda rutin haber içeriği üretmedeki başarısı, aynı zamanda sınırı ve bir bakıma zayıflığı. Genel ifade ve klişeleri kullanmanın ötesine geçemeyen, rutinin sınırlarını aşamayan binlerce finans, spor ve hava durumu haberi…
Okurlar yapay zekânın haberlerini daha sıkıcı buluyor
2014 yılında yapılan bir deneysel çalışmada, bilgisayar tarafından oluşturulan haberlerin okurlar tarafından nasıl algılandığı sorgulandı. Araştırma sonucunda okurların robot gazetecilerce oluşturulan metinleri daha betimsel ve sıkıcı bulundukları saptandı.
Eleştirmenlere göre otomatik haberler duygusal bağ kuramadığı, yaratıcı olmadığı, anlamlandırma yapamadığı, saldırgan bir dil kullanabildiği, güvenilir olmayan kaynaklara başvurabildiği ve haber-reklam dengesini kurmada başarısız olabildiği için mutlaka insan gazeteciler tarafından denetlenmeli. Bu tür algoritmalar mevcut halleri ile nedensellik kurmada, soru sormada ve yeni bir fenomeni açıklamada da yetersiz (Bkz. Bilge Narin’in 2017’de Galatasaray Üniversitesi İletişim Dergisi’nde yayımlanan “Uzman Görüşleri Bağlamında Haber Üretiminde Otomatikleşme: Robot Gazetecilik” başlıklı makalesi).
Ayrıca gazetecilik elbette rutin haberden ibaret değil. Araştırma, saha muhabirliği, elde edilen verilerin yorumlanması, gizli kalmış gerçeklerin ortaya çıkarılması, siyasal analizler, köşe yazıları robot gazetecilerin yapamadığı habercilik pratikleri. Çoğunluk bu tür işlerin yakın gelecekte robotlar tarafından yapılabileceğine pek ihtimal vermiyor.
Say: İşinizi robot gibi yapıyorsanız, o işi robotlar gayet iyi yapabilir
Ancak Boğaziçi Üniversitesi Bilgisayar Mühendisliği Bölümü öğretim üyesi, “50 Soruda Yapay Zekâ” ve “Yeni Dünya Yeni Ağ” kitaplarının yazarı Prof. Dr. Cem Say’a göre yapay zekâ için asla “yapamaz” dememeliyiz:
“İnsanların öğrenebildiği, bir sisteme göre çalışan ve detaylı düşünüp ‘bu iş böyle yapılıyor’ diye bir başkasına öğretebilecek kadar sistematize edebileceğiniz ve flowchart’a [akış diyagramı] dökebileceğiniz her şeyin yazılımı yapılabilir. Bir ‘Yılmaz Özdil programı yazdırmak istiyorum’ diye bizim bilgisayar mühendisliğindeki program yeteneği olan çocuklar arasında bir dolaşın derim. Demek ki sizin işinizin de bir otomatik tarafı varmış. Röportaj bir gömlek zor hâle getirir işi. Interaction [etkileşim] zor ama o da imkânsız değil.” (bkz. aynı kaynak)
Robotların gazetecileri işinden etme konusuna gelince, Say’a göre, “Eğer siz işinizi ‘robot gibi’ yapıyorsanız sizin işinizi robotlar gayet iyi yapabilir!”
Kalsın: Yapay zekâ gazetecilere yeni imkânlar sağlayacak
Medipol Üniversitesi İletişim Fakültesi Öğretim Üyesi Doç. Dr. Berrin Kalsın’a göre ise yapay zekâ, en azından gazetecilik alanında, insanların yerini almak ya da onların yaptıkları işleri ortadan kaldırmak için kullanılmıyor. Aksine onların yüklerini hafifletmeye, araştırmacı gazeteciliğe veya özel haberlere daha fazla zaman ayırmalarına olanak tanıyan bir yenilik. “Şu an için öngörülen, gazetecilerin mevcut görevlerinin yalnızca yüzde 8 ila 12’sinin algoritmalar tarafından ele alınacağı yönünde” diyor Kalsın.
Kalsın’a göre bu durum gazeteciler için bir tehlike değil, fırsat. Robot gazeteciler, “editörleri ve gazetecileri daha fazla değerli içeriğe yönlendirebilir. Uzun biçimli gazetecilik, uzun süreli röportajlar, analizler, veri odaklı gazetecilik ve araştırmacı gazetecilik gibi insan gücüne dayanan çalışmalara gazeteciler daha çok yoğunlaşacaktır.”
Dolayısıyla, “Gazeteciler; bilgi kontrolü, analiz, bağlamsallaştırma ve bilgi toplama gibi temel çalışmalarını hâlen yapıyor ve yapmaya devam edecektir. Yapay zekâ bunların yerini hiçbir zaman alamaz. Bu anlamda, insanlar tüm gazetecilik süreçlerinin merkezinde yer almaya devam edecek.”
Bu nedenle Kalsın’a göre “Gazeteciler aslında yapay zekâ kullanımında eğitilmeli ve bu teknolojiden en iyi şekilde yararlanmak için kendilerini geliştirmeli. Özellikle işe yeni başlayanlar ve gazetecilik öğrencileri yapay zekânın gazetecilikte kullanımını öğrenerek geleceğe kendilerini hazırlamalı.”
Haber merkezindeki değişimler
Robot gazeteciler insan gazetecileri doğrudan işinden etmeyecek olsa bile büyük şirketlerin haber merkezlerinde kimi değişimlere yol açtı. Son yıllarda AP, BBC, Reuters, AFP, Forbes gibi yayıncılar haber merkezlerine yazılımcıları dâhil etti. Gazeteciler bazı sıkıcı rutin haberleri yapma zorunluluğundan kurtardı. Ancak bu haberler hâlâ insan gazeteciler tarafından kontrol ediliyor.
Yapay zekâ uygulamaları, farkında olmaksızın haber hazırlama sürecinin çeşitli aşamalarını çoğu zaman evrimci bir biçimde değiştiriyor. Örneğin gazeteciler farklı dildeki kaynaklardan yararlanmak için Google Translate ve başka çeviri programlarını sıklıkla kullanıyor. Yani yapay zekâ birçok gazetecinin iş yapış biçimini aslında uzun yıllar önce değiştirdi bile.
Teknolojinin çözemediği sorunlar
Tüm bunlara rağmen yapay zekâ, “ultra-iyimserlerin” umduğu gibi medya sektöründeki temel sorunların ortadan kaldırmıyor ve gazeteciliği daha nesnel/tarafsız hâle getirmiyor. Gazetecilik, insan ile olay/olgu arasında bir tür temsil ilişkisi kurduğundan, kısacası doğası gereği insana özgü, “taraflı” ve politik.
Örneğin bir şirketin finansal raporundaki yüksek kâr verisi, haber anlatısına dönüştürülürken o şirket işçilerinin eylemlerini hatırlatıp hatırlatmamak politik bir tercih. Robot gazeteciler daha önce yapılmış haber ve yapılandırılmış yordamlar üzerinden haberlerini oluşturduğu için geçmiş haberlerdeki genel eğilimi yansıtmanın ötesine geçemiyor.
Elbette bu durum robot gazetecileri kullanan ana akım büyük medya şirketleri için sorun teşkil etmiyor. On binlerce “renksiz” finans, kâr-zarar analizi, spor müsabakası, meteoroloji haberi de zaten onlara lazım. Çok sayıda yapay zekâ uygulamasından yararlanan alternatif medyanın ise robot gazeteciliğini nasıl kullanabileceği ayrı bir tartışma konusu.
Yılmaz Özdil gibi köşe yazısı yazma programı
Bu arada Cem Say’ın dediği gibi bir Yılmaz Özdil programı gerçekten de yazıldı. Özdil’in eski yazılarını tarayan bir algoritma, otomatik olarak “Yılmaz Özdil yazıları” yazıyor.
Programın pek başarılı sonuç verdiği söylenemez, çünkü geçmişteki Özdil yazılarında geçen cümleleri rastgele birbirine eklemekten ibaret gibi görünüyor (Gerçi Yılmaz Özdil’in kendisi de zaman zaman eski yazılarını hiçbir not koymadan tekrar tekrar yayımlıyor).
Yılmaz Özdil programının yazdığı yazıdan bir örnek şöyle:
“2 milyar 100 milyon dolarları, unutalım bu milletin ya Allah, ya fettah demesi bütün hesapları altüst eder.
“Yıllardır kafanda çuvalla gezmekten rahatsız olmuyorsun da, alt tarafı 6 şiddetinde deprem oldu, 21’inci yüzyılda hâlâ kerpiçte oturuluyordu, 51 insanımız enkazda öldü.
“Koleksiyon eserler bölümünde, Selçuklu, Osmanlı ve Cumhuriyet esaslarına sadakattan ayrılmayacağıma vallahi.
“Ve, şimdi de öyle duyuyor.
“Bu arada, O Ses Türkiye devam ediyor, bu akşamki kapanış törenlerine kadar kısmetse 30’u filan bulması bekleniyor.
“Deniz Kuvvetleri Komutanı, 1’inci Ordu Komutanı, üstün hizmet madalyası, Kıbrıs liyakat madalyası sahibi, millete 45 sene hizmet etti, evi basıldı.”
#!/usr/bin/env python3
import datetime
import json
import markovify
import re
import requests
import time
from bs4 import BeautifulSoup
now = datetime.datetime.now()
current_month = now.month
months = [‘1’, ‘2’, ‘3’, ‘4’, ‘5’, ‘6’, ‘7’, ‘8’, ‘9’, ’10’, ’11’, ’12’]
years = [‘2015’, ‘2016’, ‘2017’, ‘2018’, ‘2019’]
headers = {‘User-Agent’: ‘Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)’}
hurriyet_urls = []
hurriyet_articles = []
sozcu_urls = []
sozcu_articles = []
input_file1 = ‘hurriyet_yozdil_articles.txt’
input_file2 = ‘sozcu_yozdil_articles.txt’
merged_file = ‘merged_articles.txt’
def sozcu_fetch_urls():
fetched_urls = []
for year in years:
for month in months:
try:
if (year == ‘2019’ and (month == (current_month + 1))):
break
print(month + ‘/’ + year)
r = requests.post(‘https://www.sozcu.com.tr/kategori/yazarlar/yilmaz-ozdil’,
headers=headers,
data = {‘month’:month,
‘queryyear’:year})
soup = BeautifulSoup(r.text, ‘html.parser’)
soup = soup.find(“ul”, {“class”: “old-list”})
links = soup.find_all(‘a’)
for link in links:
fetched_urls.append(link[‘href’])
except Exception as error_mes:
print(error_mes)
print(‘Error was captured but program will continue to work!’)
continue
return fetched_urls
def sozcu_fetch_articles(sozcu_urls):
fetched_articles = []
for url in sozcu_urls:
try:
print(url)
r = requests.get(url, headers=headers)
soup = BeautifulSoup(r.text, ‘html.parser’)
soup = soup.find_all(type=”application/ld+json”)[3].string
ld_json = json.loads(soup)
article_body = ld_json[‘articleBody’]
fetched_articles.append(article_body)
except Exception as error_mes:
print(error_mes)
print(‘Error was captured but program will continue to work!’)
continue
return fetched_articles
def s_write_to_file(articles):
with open(‘sozcu_yozdil_articles.txt’, ‘a’) as f:
for article in articles:
f.write(article)
def hurriyet_fetch_urls():
fetched_urls = []
for page in range(1, 257):
try:
r = requests.get(‘https://www.hurriyet.com.tr/yazarlar/yilmaz-ozdil/?p=’ + str(page),
headers=headers)
print(‘https://www.hurriyet.com.tr/yazarlar/yilmaz-ozdil/?p=’ + str(page))
soup = BeautifulSoup(r.text, ‘html.parser’)
soup = soup.find_all(“a”, {“class”: “title”})
for link in soup:
fetched_urls.append(‘https://www.hurriyet.com.tr’ + link[‘href’])
except Exception as error_mes:
print(error_mes)
print(‘Error was captured but program will continue to work!’)
continue
return fetched_urls
def hurriyet_fetch_articles(hurriyet_urls):
fetched_articles = []
i = 0
for url in hurriyet_urls:
try:
print(url)
r = requests.get(url, headers=headers)
soup = BeautifulSoup(r.text, ‘html.parser’)
title = soup.find(“div”, {“class”: “article-content news-description”})
text = soup.find(“div”, {“class”: “article-content news-text”})
article_title = title.string
article_body = str(text.contents[0]).replace(‘<p>’, ‘\n’).replace(‘</p>’, ‘\n’) \
.replace(‘</strong>’, ”).replace(‘<strong>’, ”) \
.replace(‘<br>’, ‘\n’).replace(‘<br/>’, ‘\n’) \
.replace(‘</i>’, ”).replace(‘<i>’, ”) \
.replace(‘<em>’, ”).replace(‘</em>’, ”) \
.replace(‘</b>’, ”).replace(‘<b>’, ”)
if (article_title is None):
article_title = ”
if (article_body is None):
continue
i += 1
print(i)
print(article_title)
print(article_body)
fetched_articles.append(article_title + ‘\n’ + article_body)
except Exception as error_mes:
print(error_mes)
print(‘Error was captured but program will continue to work!’)
continue
return fetched_articles
def h_write_to_file(articles):
with open(‘hurriyet_yozdil_articles.txt’, ‘a’) as f:
for article in articles:
f.write(article)
def merge_normalize_files(input_file1, input_file2):
with open(input_file1) as f1:
data1 = f1.read()
with open(input_file2) as f2:
data2 = f2.read()
merged_data = data1 + ‘\n’ + data2
merged_data = merged_data.replace(‘&#8211;’, ‘-‘) \
.replace(‘&#8230;’, ‘…’) \
.replace(‘!.’, ‘!’) \
.replace(‘?.’, ‘?’) \
.replace(‘&amp;’, ‘&’) \
.replace(‘*** ‘, ‘\n***\n\n’) \
.replace(‘* ‘, ‘\n***\n\n’) \
.replace(‘/’, ”)
merged_data = re.sub(‘<[^<]+?>’, ”, merged_data) # Remove HTML tags.
merged_data = re.sub(‘(<!–.*?–>)’, ”, merged_data) # Remove HTML comments.
with open(merged_file, ‘w’) as f3:
f3.write(merged_data)
def markov_model_from_file(merged_file):
with open(merged_file) as f:
file_content = f.read()
text_model = markovify.Text(file_content)
for _ in range(10):
generated_sentence = text_model.make_sentence()
if (generated_sentence is not None):
print(generated_sentence)
if __name__ == ‘__main__’:
hurriyet_urls = hurriyet_fetch_urls()
hurriyet_articles = hurriyet_fetch_articles(hurriyet_urls)
h_write_to_file(hurriyet_articles)
sozcu_urls = sozcu_fetch_urls()
sozcu_articles = sozcu_fetch_articles(sozcu_urls)
s_write_to_file(sozcu_articles)
merge_normalize_files(input_file1, input_file2)
markov_model_from_file(merged_file)
GPT-3 doğal dil işlemede çığır açıyor
Türkçe doğal dil işleme ve yapay zekâ uygulamaları, bu örnekte de görüldüğü gibi henüz emekleme aşamasında. Ancak kısa süre önce tüm dillerde benzer bir durumun söz konusu olduğunu unutmamak gerek. Oysa bugün özellikle İngilizce uygulamalar, derin öğrenme ve sinir ağı gibi yeni teknolojilerle bir başka boyuta geçti.
MIT Technology Review dergisinin “gelmiş geçmiş en güçlü dil modeli” diye nitelediği “Önceden Eğitilmiş Üretken Dönüştürücü 3” (Generative Pre-trained Transformer 3 veya kısaca GPT-3) son günlerde çok tartışılıyor.
Hâlihazırda test amaçlı olarak sınırlı sayıda uygulama geliştiriciye açılan GPT-3’ü kullanan bir üniversite öğrencisi, geçen ay yapay zekâya bir blog yazısı yazdırdı. Binlerce kullanıcı bu yazıyı bir makinenin yazdığını anlayamadı ve bu blog, Hacker News sitesinde birinci sıraya yükseldi.
Liam Porr adlı öğrencinin GPT-3’e yazdırdığı blog yazısına baktığımızda, dil kullanımı açısından “Yılmaz Özdil programından” çok daha başarılı olduğunu görüyoruz. “Kendinizi üretkenlikten uzak mı hissediyorsunuz? Belki de çok fazla düşünmeyi bırakmanız lazım” başlığını taşıyan ve yapay zekâ ile içerik üretiminin geleceğine dair bir fikir veren bu blog yazısının girişini Türkçe’ye şöyle çevirebiliriz:
“Bir şeyler yapabilmek için belki de daha az düşünmemiz gerekiyor. Bu bazılarına ters gelebilir ama bence düşüncelerimiz yaratıcılık yolunda önümüzde engel oluşturuyor. Dış dünyayı ‘duymazdan gelip’ önümüzdeki işe odaklandığımız zaman daha iyi çalışabiliriz. Son günlerde bunları düşünüyordum ve bu konuda bir blog yazmanın iyi olabileceğine karar verdim.”