LC Waikiki Datathon 2019

Bu yazı 13.03.2019 tarihinde perakendeanalitigi.com adresinde yayınlanmıştır. Perakende Analitiği websitesi farklı bir misyonla yoluna devam edeceği için bu yazının burada tekrar hayat bulacağını umut ediyorum. Crawlers ekibinin bir üyesi olarak kaleme aldığım bu yazıyı keyifle okumanız dileğiyle.

8–11 Mart 2019 tarihleri arasında, Türkiye’de ilk defa bir perakende firması, kendi verisini kullanarak Datathon gerçekleştirdi. Cuma günü saat 15:00’da başlayan bu maraton, Pazar günü ödüllerin verilmesi ile son buldu. Perakende Analitiği ekibi olarak bizi yakından ilgilendiren bu zorlu, keyifli ve bir o kadar da öğretici olan Datathon hakkında, kısa bir yazıyı kaleme almak istedik.

Bu yazıda,

  1. Datathon nedir?
  2. LC Waikiki Datathon Süreci
  3. Program Hakkında Bilgi
  4. Jüri ve Danışmanlar
  5. Problemler hakkında bilgi
  6. Birinciliği kazanan Crawlers Takımı ile kısa bir röportaj 🙂

Kısaca LC Waikiki firmasını tanıyalım.

George Amouyal, 1988 yılında bir uçak yolculuğu yaparken, önünde bulunan koltuğun cebinde bulunan dergiyi incelerken gördüğü Waikiki Adası’ndan çok etkilenmişti. Waikiki Adası’nda herkes çok mutluydu. Kurmak üzere olduğu şirkete harika bir isim bulmuştu. 1988 yılında başlay… (LC Waikiki’nin hikayesini tabi ki bu şekilde anlatmayacağız. Eğer bu hikayenin devamını merak ediyorsanız, yorum bırakabilirsiniz. Ben de size bu hikayenin tamamını anlatırım)

Kurumsal bilgiye gelecek olursak:

LC Waikiki, 1988 yılında Fransa’da çıktığı marka yolculuğuna, 1997 yılından beri LC Waikiki Mağazacılık Hizmetleri Ticaret A.Ş. çatısı altında Türk markası olarak devam etmektedir. “İyi giyinmek herkesin hakkı” felsefesi ile bugün 45 ülkede 922 mağazada uygun fiyata kaliteli ürünler sunarak müşterilerine ulaşılabilir modanın keyfini yaşatmaktadır. LC Waikiki, 2009 yılında ilk adımını Romanya’da atarak başladığı yurt dışı yatırımları ile “2023 yılına kadar Avrupa’nın en başarılı üç moda perakendecisinden biri olmayı’’ hedeflemektedir.

45 ülkede 922 mağazada hizmet sunan LC Waikiki, genel merkezinde bu organizasyona ev sahipliği yaptı.

Öncelikle Datathon nedir ve Datathon ile Hackathon arasındaki fark nedir ondan bahsedelim.

Wikipedia’daki tanıma göre, “A Hackathon is a design sprint-like event in which computer programmers and others involved in software development, including graphic designers, interface designers, project managers, and others, often including domain experts, collaborate intensively on software projects.”

“Hackathon; bilgisayar programcılarının ve yazılım geliştirme sürecinde olan grafik tasarımcıları, ara yüz tasarımcıları, proje yöneticileri ve alanında uzman kişilerin dahil olduğu, genellikle bir yazılım projesi üzerinde çalışılan etkinliktir.

Datathon ise, Hackathon’da yapılan çalışmaların merkezinde veri olan versiyonudur. Bir yazılım projesi geliştirmek yerine, sunulan bir veri setinin amaca uygun olarak çözümlenmesi veya hedef değerlere en yakın sonuca ulaşmayı hedeflemektedir.

Şimdi kısaca bu etkinlik hakkında bilgi verelim.

Moda Perakendesinin öncü firması, bir Datathon düzenlerde katılım az olur mu? Tabi ki olmaz. 400 kişi başvurmuş.

Bu kadar çok başvuru olunca, bir ön eleme yapılmasına karar verilmiş. Etkinlikten 1 hafta önce, katılımcılara ufak bir problem yollandı. E-Ticaret müşterilerinin sitede kalma süreleri, açtıkları sayfalar, session sayıları, bounce rateleri, vs. gibi değerler ile alışveriş yapıp yapmadıkları verilmişti. Ekiplerden, bu verileri kullanılarak bir model kurmaları isteniyordu. Belirlenen zamanda bu modeli yollayanlar arasından, Datathon’a katılacak ekipler belirlendi.

Gelelim ana etkinliğimize.

Etkinlik ilk duyurusu yapıldığında 2 ana kategori verilmişti. Birincisi “Satışı Keşfet”, İkincisi ise “E-Ticareti Keşfet”. Bu iki kategoriyi görünce, dışarıdan biri olarak içeriği merak ettik. Acaba detayda ne sorulacak. Daha doğrusu bu iki güne sığdırılacak bir problem ne olacak diye. Ardından, etkinlik yaklaştıkça detaylar su yüzüne çıkmaya başladı. Ekiplerin 3 problemden birini seçmesi istendi.

  • Satış Tahmini
  • Churn Tahmini
  • Görüntü İşleme

Etkinlik başladığı ilk gün, şirket yetkilileri sahneye çıkarak, problemleri ve bu problemlerin çözümünden ne beklediklerini anlattılar. Sunumların sonunda, konularını seçen ekiplere veri setleri ve bu veri setlerinin açıklamaları verildi. Normalde Hackathonlarda, etkinlik boyunca aynı mekanda kalınır ve kimse eve gitmeden gece gündüz çalışılır. Hatta, uyku tulumlarında, belirlenen koltuk alanlarında uyunur. Fakat LC Waikiki’nin düzenlediği bu etkinlik, sadece gündüzleri yapıldı. Sabah ve akşamları katılımcılar servislerle ulaşımlarını sağladılar. Bunun tam olarak nedenini bilmesek de, katılımcı sayısının çok fazla olması, iş güvenliği, bilgi güvenliği (ISO 27001), sağlık vs. gibi nedenlerden biri olduğunu düşünüyoruz. Zaten yarışmayı kazanmak isteyen ekiplerin, eve gittiklerinde sabahlayıp yarışmayı kazanmak için ellerinden geleni yaptıklarını tahmin ediyoruz.

Problemlerin detaylarına geçmeden önce Ödülün ne olduğunu hatırlayalım. Birinciye tam 15.000TL, İkinciye 10.000TL, üçüncüye ise 5.000TL ödül verildi. Diğer etkinliklerle kıyaslandığında ödülün iyi olduğunu söyleyebiliriz.

Yazıyı buraya kadar okuduysanız, bu etkinlik hakkında övgüyle bahsettiğimizi anlamışsınızdır (biraz fazla mı övüyoruz). Bunun bir nedeni de, Jüri ve Danışmanların kalitesi. Hepsi birbirinden değerli ve sektörün önde gelen “iş insanları”. Jüri, Şampiyonlar Ligi gibi. Perakende denince akla gelen herkes orada. Jüride bulunan 4 kişiyi yakinen tanıyorum ve diğer kişileri de uzun zamandır takip ediyorum ve hepsi örnek aldığım kişiler.

Danışmanlar, her biri alanında uzman kişiler. Öğretim Üyeleri, farklı sektördeki profesyoneller, bu alana hayatını adamış eğitmenler, yazarlar ve tabi ki LC Waikiki çalışanları (Kalp).

Bu listede ismi olmayan fakat, katılımcılarla ayrı ayrı ilgilenen, Amazon (AWS), Google (Cloud) ve Microsoft (Azure) yetkililerine de buradan bir selam çakmamız lazım. Etkinliğin en başından sonuna kadar, ekiplerle ilgilenip destek verdiler.

Şimdi gelin, kısaca problemlerden bahsedelim.

Satış Tahmini

Satış Tahmini probleminden bahsetmeden önce Ürün Hiyerarşisi nedir onu kısaca anlatalım.

Bir perakende şirketinde, şirketi daha verimli yönetmek ve metrikleri doğru takip etmek için ürün, lokasyon, zaman hiyerarşilerine ihtiyaç duyulur. Bunun bir nedeni de, şirketteki personellerin konumlandırmasını doğru yapmaktır. Ürün hiyerarşisinde hem markalara hem cinsiyetlere hem de satın alma yapılan ürün cinsine göre şekillenmektedir.

LC Waikiki bu problemde, Mağaza-Gün-Class seviyesinde (Neee?) tahmin yapılmasını istemekteydi. Verdikleri train veri seti ile modeli geliştirip, test için hazırlanan veri setinde belirlenen metriklere göre modelin başarısı ölçülecekti.

Moda Perakendesinde tahmin üzerine uzun süre çalışmış biri olarak, problemin zor olduğunu söyleyebilirim. Zor olması aslında çok süper bir şey. Kolay bir şey olsaydı herkes çözerdi 🙂

Probleme zor dememin 2 nedeni var.

  1. Moda Perakendesini bilmeyen kişiler için hiyerarşiyi, değişkenleri, teknik terimleri yani veriyi anlamak çok kolay değil
  2. Veri çok büyük 🙂 Ekipler, model kurup train etmeye başlayınca bunu çok iyi anlamışlardır.

Churn Tahmini

Churn analizi ya da Tahminin de amaç, sizi terk edecek müşterilerin tespit edilmesidir. Eğer bu müşterileri öncede tespit ederseniz, onlar sizi terk etmeden önce aksiyon alıp sizden alışveriş yapmaya devam etmesini sağlayabilirsiniz.

Bu problemde de, Churn olacak müşterilerin tahmini ve Churn’e sebep olan etkenlerin ilişkilerinin ortaya çıkarılması beklenmekteydi.

Görüntü İşleme

Katılımcılara verilen ürün görsellerinden, ürünlerle ilgili özelliklerin (Cinsiyet, Renk, vs.) bulunması istenmekteydi. Bu sonuçlar gerçek verilerle karşılaştırılıp doğruluğa göre puanlanacaktı.

3 problemde birbirinden güzel ve zor. Fakat benim fikrimi soracak olursanız en zoru, Satış Tahmini problemi. Hem veri büyüklüğü, hem karmaşıklığı, hem de iş bilgisi gereksinimi nedeniyle zor olduğunu düşünüyorum. İkinci zor proje Görüntü İşleme. Verilen görüntülerin kalitesini ve boyut farklılıklarını bilmediğim için bunu söylüyorum. Eğer hepsi standart ise ve doğru kütüphanelerle çok da zor olmayabilir. Churn Tahmini ile ilgili literatürde bir çok çözüm bulunduğu için daha kolay yapılacağını düşünüyorum. Ama verinin kirli olma olasılığı ve samanlıkta iğne aramaya götüreceği için seçeceğim en son proje olurdu.

Şimdi bu yazının sürpriz kısmına gelelim. LC Waikiki Datathon’u kazanan ekip Crawlers oldu. Geçtiğimiz gün, bu harika ekiple röportaj yapma şansı buldum. Açıkçası uzun zamandır kendilerini tanıdığım için bu isteğimi kırmadılar ve sorularıma samimiyetle cevap verdiler. Gelin bu cevapları beraber okuyalım.

Crawlers ekibi üyeleri

Yavuz Selim Elmas — Borusan — Dijital Pazarlama Yöneticisi

Yasin Sancaktutan — TRT World — Veri Bilimci

Burak Suyunu — Boğaziçi Üniversitesi — Bilgisayar Mühendisliği Araştırma Görevlisi

Berk Baytar — TRT World — Yazılım Geliştirme Uzmanı

Mehmet Emin Öztürk — Afiniti — Veri Bilimci

Sabri: Kısaca Crawlers ekibini tanıtır mısınız?

Yasin: İlk ben cevap vermek istiyorum. Crawlers, birbiri ile vakit geçirmesini seven ve birlikte yaptığı her şeyden keyif alan genç bir ekip. Ben hepsi ile çalıştığım kurum dolayısıyla tanıştım, hatta üçümüz daha önce aynı ekipte bulunduk. (Ben, Mehmet Emin ve Burak)

Berk: Ekibimiz Yasin’in de belirttiği gibi aslında daha önceden beraber çalışmış kişilerden oluşuyor. Bu yüzde hepimiz birbirimizin yeteneklerini ve özelliklerini bildiğimiz için çok hızlı iş dağılımı yapabiliyoruz.

Mehmet Emin: Farklı bir deyişle, biz farklı yetkinlikleriyle birbirini tamamlayan 5 Data Sapiens’ten oluşuyor. Yavuz ekibin motivasyon kaynağı, Yasin tecrübeli bir data scientist, Berk rate limitlerin karşı koyamadığı bir crawler, Burak her konuya adapte olabilen joker bir developer ve veri bilimci, ben de kendini veri bilimi konusunda yetiştirmeye çalışan biriyim.

Burak: Biz vakti zamanında yolları TRT World’de kesişmiş, veri bilimine meraklı 5 kişiyiz. Birlikte vakit geçirmeyi seven kişiler olduğumuz için, farklı yollarda devam etsek bile görüşmeye devam ediyoruz. Her ay mutlaka bir öğlen yemeğini (lahmacun partisi) beraber yiyoruz ve sektörlerimiz hakkında konuşuyoruz.

Yavuz: Aslında bu bizim ekip olarak ilk hackathonumuz değil. Crawlers ekibi ile geçtiğimiz yıl Türk Hava Yolları Travel Hackathon’da 300 Takım arasından katilim hakki kazanan 30 takımdan birisi olduk, kendi sınıfımızda ise finale kalarak son 12 takımdan birisi olduk. Ayrıca Mercedes Benz Hackistanbul için yapılan 1000 başvuru arasından, shorlist edilen ekipler arasına girdik. Kişisel başarılardan ayrı ayrı bahsetsem tabi ki bu röportaj bitmez. Fakat Berk’in 2 adet Google Developers Challenge Ödülü , Mehmet Emin’in de geçtiğimiz yıllarda B/S/H’ın düzenlediği hackathonda birinciliği bulunuyor.

Sabri: Harika bir ekip. Açıkçası başarınızdaki en büyük etkenlerden biri sanırım birbirinizi tamamlamanız. Saf Veri Bilimciler yerine, hem data engineer, hem developer, hem veri bilimi hem de sunum ve pazarlama yeteneklerini birleştirmişsiniz. Birinciliğe şaşırmamak gerekir. Datathon’da 3 ayrı problem vardı. Satış Tahmini, E-Ticaret Churn ve Görüntü İşleme. Siz hangi problemi seçtiniz ve neden?

Yasin: Aslında başvuru esnasında Churn Analizi problemini seçmiştik. Hackathon günü Satış Tahmini projesinin hem önemi hem de problem tanımının iş sahipleri tarafından daha iyi yapılmasından dolayı konu değişikliğine gittik. LC Waikiki gibi senede yüz milyonlarca ürün satan bir perakende şirketinin süreçlerine ufak bir etkimizin bile onlar için çok şey ifade edeceğini düşündük. Ayrıca Satış Tahmini, görünürde çözülmesi en zor problem olduğu için burada yapacağımız iyi bir modelin bizi sadece bu kategoride değil, tüm yarışmada birinci yapacağını fark ettik. Bu sebeplerden dolayı konumuzu bu şekilde belirledik.

Burak: Bu problemi seçmemizin temel olarak iki sebebi vardı aslında. İlk olarak verinin kendisi ve zenginliği heyecan vericiydi. Üzerinde denenebilecek bir çok şey vardı. İkinci olarak ise satış tahmini problemi diğer problemlerden daha zor gözükse de sektör için daha değerli olduğunu düşündük.

Yavuz: LC Waikiki’nin 2017 yılı cirosu 12.2 Milyar TL, 2018 yılı rakamları açıklanmadı diye biliyorum ama hedeflerinin 16.2 Milyar TL olduğunu, bunun da yüzde 33 bandında bir büyümeye tekabül ettiğini görüyoruz. Bu ölçekte ve bu büyüme hızında LC Waikiki için en çok değer satış tahmini alanında yürütebileceğimizi düşündük, bundan dolayı satış tahmini konusunu seçtik, ve iyi ki de seçmişiz gerek LCW satış planlama ekibinin mentorlugu gerek bu alanda tecrübeli endüstri liderlerinden aldığımız öngörüleri, kurduğumuz modelle harmanlayınca çok güzel ve tatmin edici sonuçlar ortaya çıktı.

Mehmet: Ve satış tahminine odaklandık, çünkü aldığımız izlenimlere göre en zor ve aynı zamanda kıymetli problem satıştı. Churn probleminde kendimizi öne çıkaracak pek bir derinlik olmadığını düşündük. Görüntü işleme alanında da çok tecrübemiz yoktu. Bu sebeple zoru seçtik.

Berk: Bu konunun önemini anlamaya ek olarak, veri kalitesi ve derinliği olarak diğerlerinden çok daha üstündü. Hem temiz hem de büyük bir veri bulunuyordu. Bizim için gerçek bir meydan okumaydı.

Sabri: açıkçası ben de olsam, bu problemi seçerdim. Fakat Satış tahmini bu problemler arasında en zoruydu. Problem ile ilgili yaşadığınız zorlukları ve nasıl aştığınızı kısaca anlatabilir misiniz?

Yasin: Öncelikle perakende hakkında çok fazla bilgiye sahip değildik. Verideki öznitelikleri tam olarak anlamak için hem verilen doküman üzerinde kendimiz çalıştık hem de konu hakkında sektörün en iyisi olan mentorumuzdan (Adı bizde saklı 🙂 ) destek aldık. İkinci sıkıntımız ise verinin büyüklüğü ile ilgiliydi. 93 milyon satırlı bir veriyi her ne kadar elinizde bulut altyapısında çalışan çok güçlü makineler olsa bile bazı darboğaz sıkıntıları nedeniyle işlemeniz çok zorlaşıyor. Modelimiz çok yavaş çalışıyordu, iterasyon yapmamız da güçleşiyordu. Bulut sağlayıcımızın bize sağladığı neredeyse sınırsız kaynaklar sayesinde bir kaç çok güçlü makinede farklı modeller eğiterek bu problemin üstesinden geldik.

Burak: Sanırım en büyük zorluk bizim için zaman oldu. Veriyi ilk defa cuma günü Datathon’da gördüğümüzde hem verinin büyüklüğü hem de verinin zenginliği karşısında şaşırmadık desek yalan olur. Vaktimizin büyük kısmını bu veriden çıkarılabilecek ekstra özelliklere ayırdık ve veriye bir çok yeni bakış açısı getirdik. Her ne kadar ekibimiz ne yaptığını bilen insanlardan oluşsa da Yasin’in dediği gibi verinin çok büyük olması sebebiyle (Eğitim: 90M+ Test: 30M+ satır) işlemlerin yapılması uzun vakit alıyordu. Tam bu sırada Amazon’un bize sağladığı neredeyse sınırsız bulut bilişim desteği ilaç gibi geldi. Bunu tekrar tekrar söylüyoruz çünkü Amazon hızır gibi yetişti. Süre dolduğunda hala daha aklımızda modele yetiştiremediğimiz, ekleyemediğimiz özellikler kalmış olduysa da; verilen süre içerisinde en doğruya yakın özellikleri ve modelleri seçerek başarıya ulaştığımızı düşünüyorum.

Mehmet Emin: Ben biraz teknik detay vereyim. Burada teknik detay anlatmamız problem olmaz herhalde.

Sabri: Olursa kazandığınız paradan keseriz:)

Mehmet Emin: 🙂 Öncelikle büyük hacimde bir veri paylaşıldığı için 380 GB’lık belleğe 96 core işlemciye sahip makinelerde dahi sık sık bellek hatası aldık. Bu nedenle de aklımıza gelen birçok fikri uygulamakta zorlandık. Bunu aşmak için günlük seviyede tahminlerden önce veriyi haftalık seviyeye indirgeyip çok daha fazla değişken üreterek model kurma şansı bulduk. Bu şekilde aldığımız haftalık sonuçlarla günlük tahmin modelimizi besledik. Bu yaklaşım validasyon RMSE skorumuzda %20 iyileşme sağladı.

Bunun yanında günlük tahmin modelimizi daha da iyileştirmek özel günlerle alakalı çok anlamlı bir değişken ürettik. Bayramlar ve Anneler günü gibi özel günleri binary değişkenlerle temsil etmek yerine bu özel günlere kalan gün sayılarını hesapladık. Çünkü çoğunlukla özel günlerimize o gün değil öncesinde hazırlık yapıyoruz. Aldığımız geri bildirimlere göre bu değişken LC Waikiki’de şimdiye kadar hiç kullanılmamış.

Meteorolojinin satışla korelasyon içerisinde olduğunu bildiğimiz için ani hava değişimlerini hesaba katmak adına günlük sıcaklık farklarını da modelimize dahil ettik.

Ayrıca Mağaza ve Class gibi birçok sayısal görünümlü kategorik değere de ayrı ayrı odaklanarak kendi karakterlerine göre Target Encoding, Dummification, Label Encoding gibi farklı yöntemler uygulayarak modelimize ekledik.

Berk: En büyük problemimiz memory hatalarıydı bize verilen dataset büyüktü ve train etmesi çok uzun sürüyordu. Tercih ettiğimiz cloud provider Aws Cloud’du bize 500$ kredi verilmişti bir süre kadar küçük serverlar ile çalıştık son gün ise en büyüklerine geçtik ve ciddi anlamda rakiplerimize train süresinde fark attığımızı düşünüyorum.

Yavuz: Verilen datanın büyüklüğü model kuran arkadaşlarımızı özellikle zorladı, ama gerek AWS desteği gerekse sabırla 😎 bunu bir şekilde aştık diyebilirim. Teşekkürler AWS 🙂

Sabri: Son olarak eklemek istediğiniz bir şey var mı?

Berk: Bu tarz yarışmaların artması gerektiğini düşünüyorum. LC Waikiki çok iyi hazırlanmıştı ve verilen datasetler çok açıklayıcıydı. Bizden sadece probleme odaklanmamız beklenmişti. Emeği geçen herkese teşekkür ederim.

Yasin: Program her açıdan çok başarılıydı. Mentorlar bizlerle sürekli ilgilendiler, sorularımızı cevapladılar. Problemler ve veri setleri de çok ilgi çekiciydi. Ülkemizde mevcut hackathonların yanında bu şekilde veri yoğunluklu datathonların da olmasını çok isteriz. Buradan emeği geçen herkese ve sizlere de teşekkür ederiz.

Yavuz: LC Waikiki Datathon bizim için çok güzel bir tecrübeydi, düzenleyen ekibi ayrı ayrı tebrik etmek lazım. Veri konusunda uzman arkadaşlarımın aktardığına göre paylaştıkları veriler son derece temizdi. Görebildiğimiz kadarıyla sadece böyle bir etkinlik yapmak için yapılmış değildi, ben özellikle bizimle birebir ilgilenen IT’den sorumlu Genel Müdür Yardımcısı Şerafettin Özer’e çok teşekkür etmek istiyorum. Ayrıca pazar günü aksam saatinde 1.lik ödülünü LC Waikiki CEO’sundan almak da üst yönetim düzeyinde bu tarz etkinliklere ne derece önem verildiğinin ayrıca göstergesi .

Mehmet Emin: LC Waikiki’ye yeterince teşekkür edildi. Ben ekibimize teşekkür etmek istiyorum. Bu muhteşem ekibin bir parçası olarak böyle bir başarı elde ettiğimiz için çok mutluyum. Bu etkinlik aldığımız neticenin yanında önce ömür boyu unutmayacağımız güzel bir anı olarak kalacak zihinlerimizde.

Burak: LC Waikiki ve ekibe teşekkür edildiğine göre, ben de ekibimizin abisine teşekkür etmek istiyorum. Başta ne kadar ekibimiz 5 kişiden oluşuyordu dediysem de; arka planda bizi mentörlüğüyle ve bilgisiyle aydınalatan; veriyi farklı şekillerde görmemizi sağlayan Sabri Suyunu’ya (evet kendisi abim oluyor) teşekkür etmeden olmazdı 🙂

Sabri: Ben hepinize ayrı ayrı teşekkür ederim. Hepinizi tekrar tebrik ederim. Gerçekten harika insanlarsınız. Bu röportaj vesilesi ile LC Waikiki’yi de böyle güzel bir organizasyonu düzenledikleri için tebrik ediyorum. Ellerinize sağlık

Son söz olarak, gerçekten kaliteli bir etkinlikti. Özetleyecek olursak,

  • Kaliteli Problemler
  • Kaliteli Jüri ve Danışmanlar
  • Kaliteli altyapı sağlayıcıları ve Teknik Destek
  • Kaliteli mekan
  • CEO’sundan uzmanına kadar sahiplenilmiş bir organizasyon

Bu organizasyonun sonucunda hem LC Waikiki, hem yarışmacılar, hem de servis sağlayıcılar kazandı. Organizasyonu düzenleyen ve ekiplerle yakından ilgilenen Şerafettin Özer Bey ile Ahmet Kalafat’a ve tüm Datathon ekibine tebriklerimi iletiyorum. Perakende sektörüne ve diğer sektörlere örnek olması temennisi ile.

Datahon Websitesi: http://datathon.lcwaikiki.com/

LC Waikiki Analytics Ekibinin yayınladığı medium yazısı: https://medium.com/lcw-analytics/bir-datathonun-anatomisi-lc-waikiki-datathon-2019-a55606117bcb

Boğaziçi Üniversitesi Haberler: https://haberler.boun.edu.tr/tr/haber/verinin-sihirbazlari-datathon-da-buyuk-odulu-aldi

Boğaziçi Üniversitesi MIS Haberler: http://www.mis.boun.edu.tr/new/bolumumuz-ogrencilerinden-yavuz-selim-elmasin-takimi-lc-waikiki-datathonda-birinci-oldu

Ne İş Yapıyorum – Big Data ve Machine Learning – Bölüm 3

“Ne İş Yapıyorum? – Big Data ve Machine Learning” bir yazı dizisidir. 3 yazıdan oluşmaktadır. Bu metin de bu dizinin son yazısıdır. Birinci yazıya ve ikinci yazıya ulaşmak için tıklayabilirisiniz.

Bu yazıyı 2017 yılının ortalarında TRT World’de hala çalışıyorken yazmaya başlamıştım. Sonrasında yazmayı bırakınca bu yazı da taslaklar arasında kaldı. Bir çoğunuz bilmese de yakın zamanda hayatımda yeni bir pencere açtım. Bu sebeple biraz kendime vakit ayırma şansına da eriştim. Bana kalan bu zamanın bir kısmında da yazı yazmaya karar verdim. Eski yazılarımı okurken, “Bu yazıyı da ben mi yazmışım ya, ne güzel yazmışım” dediğim oluyor. Bakalım eskisi gibi güzel yazılar yazabilecek miyim? Göreceğiz 🙂

Bu yazıyı okurken, sanki hala TRT World’de çalışıyormuşum gibi düşünün. (Çünkü yazının dili hala çalışıyormuşum gibi yazılmış. Değiştirmek istemedim) TRT World’de çalışmak hayatımda verdiğim en doğru kararlardan biriydi. Harika insanlarla tanıştım ve hiç bir yerde öğrenemeyeceğim bilgilere vakıf oldum. Bana bu fırsatı veren, vesile olan herkese teşekkür ederim.

-Sabri uyan! Sanırım vakit geldi. Ekrandaki şu değerlere bir baksana.

Saat gece yarısı 03:44’tü. Yaklaşık 6 aydır, kuş uçmaz kervan geçmez bu yerde kalıyorlardı. Yasin, ilk geldiklerinde neden burada olduklarını anlayamıyordu. Tüm dünyadan uzak bir odada, bir şeylerin gerçekleşmesini bekliyorlardı. 3 hafta önce ilk belirtileri ortaya çıkmıştı ve son 1 haftadır bu belirtiler iyicene artmıştı. Ve sonunda saat 03:44’te bekledikleri olaylar gerçekleşti.

Yasin’in dürtmesiyle uyanan Sabri, siyah çerçeveli gözlüğünü taktı ve ekrana baktı. “Sonunda” dedi mırıldanarak. Hemen hazırlanıp eve dönmeleri gerekiyordu. “Ev”. Söylemesi bile garip geliyordu. Malum olaylar olmadan önce “Ev”i çok özlüyordu fakat artık anlamını yitirmişti. Sadece cümle içinde geçen bir kelimeydi Ev. Özne bile değildi. Dolaylı bir tümleçti.

Gerekli hazırlıkları yapıp hemen yola çıktılar. Yasin, “sabaha kadar bekle..” dediyse de, Sabri bunu duymamazlıktan gelerek helikopterin kapısını açıp, pervaneleri çalıştırdı. Yasin apar topar topladığı eşyalarla birlikte kendisini helikoptere attı ve kulaklıkları taktı.

Sabri derin bir nefes aldı. Helikopter havalanana kadar son 6 ay gözünün önünde film şeridi gibi geçmişti. İlk günden itibaren herkes aynı soruyu sormuştu. Neden bırakıp gitmişti, ne bu kadar önemli olabilirdi, orada ne yapacaktı ve ne yapıyordu, geri dönmeyi hiç mi düşünmüyordu. Helikopter havalanmaya başlarken gözlerinden birkaç damla yaş süzüldü. Gerçekten 6 ay boyunca ne yapmıştı ve şu anda neden bu şekilde davranıyordu. Helikopter havalandıktan 5 dk sonra, Sabri cebindeki kumandayı çıkardı ve kırmızı mı yoksa yeşil mi olduğuna emin olamadığı tuşa bastı.

Booooom!!!!

Yaptığım işleri abartarak anlatmayı çok severim. Abartmayı çıkarsak bu cümle yine doğru olur. Hatta yaptığım işleri de çıkaralım. Evet Anlatmayı çok severim. Sosyal çevremde iyi bir dinleyici olsam da, iş hayatında anlatmayı çok seven, bildiklerini paylaşan birisiyim. Hatta çok sevdiğim bir arkadaşım (Melih), bana Barış Özcan gibi bir kanal açıp insanlara bir şeyler anlatmam konusunda çok telkinde bulunsa da, ben bunu yapacak cesareti kendimde bulamamıştım ki hala bulamıyorum. Ben iyi yaptığımı düşündüğüm şeyi yapayım. Anlatacağım şeyleri yazarak anlatayım.

6 ay önce, önemli bir kariyer değişikliği yaparak TRT World’de Data & Insight Lead olarak göreve başladım. Bu değişiklik benim hayatımın tamamen değişmesine sebep oldu. Bugüne kadar hiç bilmediğim, hiç duymadığım, hiç görmediğim şeyleri öğrenme fırsatım olmuştu. Tabi sudan çıkmış balık gibiydim. Sanki yeni mezun olmuş bir mühendis gibiydim ve bunun sonucu olarak çok zorlandım.

Yazdıkça yazacaklarımı toparlayamayacığımı farkediyorum. Bu sebeple yazıyı bir kaç bölüme ayırmaya karar verdim. Birinci bölüm Yaptıklarım(ız) ve Yapmaya Çalıştıklarım(ız), ikinci bölüm Yapmak İstediklerim(iz), üçüncü bölüm Öğrendiklerim, ve son bölüm yaşadıklarım / duygularım olacak.

Yaptıklarım(ız) ve Yapmaya Çalıştıklarım(ız)
Yeni Medya. Aslında sorumlu olduğumuz her şey yeni medya ile ilgili. Peki nedir bu Yeni Medya? Yeni Medyayı anlamak için öncelikle yeni olmayan medya nedir onu bilmek gerekiyor.

Geleneksel Medya, günümüzde yaygın olarak kullanılan, gazete, dergi, televizyon gibi araçlarla tek yönlü iletişim kuran bir alandır. Herkese aynı içerik sunulur. Sadece ünlü olan kişilere yer verilir. (Zeki Müren espirisi) Televizyon hariç ulaşılması zordur. (Yakınınızda bakkal olmadığını varsayıyorum) Yapım aşaması uzundur ve yüksek maliyetlidir.

Yeni Medya, internetin birbirine bağladığı cihazlar ve sistemler arasında enformasyon akışının bireyin ve işletmelerin hayatında etki ettiği her noktayı inceleyen ve iletişimin çok yönlü olduğu bir alandır. Yeni medyada her şey kişiye özel tasarlanabilir. Ünlü olmanıza gerek yoktur, yeni medya da herkese yer vardır. Hatta özgün olursanız yeni medya ünlüsü bile olabilirisiniz. Bir mesaj ile herkese ulaşabilirsiniz. Maliyetler düşüktür ve kayıt düğmesine basmanız yeterlidir.

Aşağıda IDC konferansında yer verdiğim, Yeni Medya ve Geleneksel Medya arasındaki farkları anlatan slayta ulaşabilirsiniz.

yeni medya

Yeni medya, derya deniz. Sosyal medya hesapları, web-siteler, micro siteler… Nereye elimizi atsak veri akıyordu. Hatta öyle bir veri akıyordu ki, bu kadar veri ile ne yapacağımızı düşünmeden önce biz bu verileri nasıl tutacağız diye sorgulamaya başladık.

sosyal medya

TRT World’de küçük ve çok harika bir ekibe sahibim. Ekibimde 3 kişi var. Yasin, Mehmet Emin ve Burak. Ekibimde olmasa da, tüm projelerde birlikte çalıştığımız Data Canavarı Berk de ekibin fahri üyesi. İkinci bir fahri üyemiz de Dijital ekibinden iletişim konusunda üstat Yavuz Selim. (2020 Edit: CRAWLERS)

TRT World’ün dijital hesaplarından akan milyonlarca veri var. Bu verilerin üzerine kurgulayacağımız projeler için öncelikle onları sürdürebilir bir şekilde elde etmemiz ve tutmamız gerekiyordu.

Bilgi İşlem ve Insight ekibi olarak, açık kaynak kodlu araçlar (open source tools) kullanarak bir veri akışı (data pipeline) oluşturduk. Bir cümle ile anlatmak ne kadar kolaymış. Ama yaparken gerçekten çok uğraştık. İşin ilginci, bu gibi projelerde en zor kısım kod yazmak değil bu işin mimarisi ve sürdürebilir bir şekilde çalışmasını sağlamaktır. Türkiye’de bir medya grubu bu işi daha önce yapmadığı için de her şeyi, kendimiz keşfedip yapmamız gerekti. Tekrar tekrar yazdığımız kodlar, altyapılar, tablolar, mimariler sonunda veri akışımızı ve üstüne kurduğumuz yapıyı kısmen tamamlamış olduk.

veri akışı

Sosyal Medya, web-siteler ve uygulamalar üzerinden akan veri, API kullanımı, scraping, vb. gibi yöntemlerle alınıp Kafka ile veri akışı sağlandıktan sonra, hem yapısal hem de yapısal olmayan yerlere kaydediliyor. Ardından bu verileri kullanılarak projelerimizi yapıyoruz. (Farkettiyseniz her şeyi çok detaylı anlatan ben, bu kısmı çok basit ve detaya girmeden anlattım. Hatta teknik terimleri kullanmaktan kaçındım. Bunun en büyük sebebi, bu bilginin “Fikri Mülkiyeti” olmasından kaynaklanıyor. Emeğe saygı, V1’e selam)

Şimdi geldik en heyecanlı kısma. TRT World’de bir çok projeye imza attık. Fakat bu projelerden 3 tanesi hem çok değerli hem de anlatması çok keyifli.

1- İçerik Potansiyel Tahmini

TRT World’deki 3. ayımda bir öğlen yemeği yerken “V1” ile karşılaştım. Hem yemek yiyor hem de muhabbet ediyorduk. Konudan konuya atlarken “Bir içeriğin ne kadar hit olacağını tahmin edebilseydik her şey daha kolay olurdu” minvalinde bir şey söyledi. Bu konuyu daha derinlemesine konuşmaya başladık ve perakendedeki ürünlerin attributelerini kullanarak tahmin edilmesine kadar geldik. Soru şuydu, bir içeriğin tüm bileşenlerini ayrı ayrı belirleyebilirsek ve bundan yola çıkarak geçmişteki içeriklerin etkileşimlerinden yola çıkarak bir model kurabilir miydik? Harika bir fikirdi. Ta ki, “V1” güzel fikir ama bunu siz yapamazsınız diyene kadar. Kafamdan kaynar sular döküldü. Bunu da yapamıyorsak, bizim orada ne işimiz vardı?

Kedi videoları her zaman çok izlenir. Fakat bir politik video her zaman çok yüksek etkileşim almayabilir. Soru şu: Bir kedi videosunun çok izlenmesindeki sebep her zaman kedi midir? Bir politikacının kedi ile tartıştığı bir video, sıradan bir kedi videosundan daha az mı izlenir? (Tabiki soru bu değil ama buna benziyor 🙂 )

icerik potansiyel tahmini

Hemen ekibi topladım. Projeyi anlattım. Herkes çok heyecanlandı. Fakat nereden başlayacağımız ve nasıl yapacağımız konusunda hiç birimizin bir fikri yoktu. Daha doğrusu bu projeyi sürdürebilir bir şekilde kurgulamakta zorlanıyorduk. Önce amacımızı belirledik:

Bir editör, yeni bir içerik ürettiğinde, bu içeriğin alacağı etkileşimi 100 üzerinden tahmin edip, CMS’de (içerik yönetim sisteminde) bunu görmesini sağlayacak, yeni girilen her içeriğin sonucunu algoritmaya dahil ederek, kendini geliştiren bir model yazmak.

Bu amaç için proje adımlarmızı belirledik,

  1. Bugüne kadar yayınlanan tüm içeriklerin bileşenlerinin çıkarılması
  2. Bugüne kadar yayınlanan tüm içeriklerin etkileşimlerinin bulunması
  3. Bileşenler ve etkileşim kullanılarak tahmin algoritmasının geliştirilmesi
  4. Veri akışının oluşturularak, bu sistemin sürdürebilir bir şekilde çalışmasının sağlanması

İlk iş içeriklerin bileşenlerinin çıkarılmasını sağladık. İçerik Yönetim Sistemindeki her bir makaleyi ön işlem (pre-process), API ve son işlem (post-process) geçirerek parçalar ayırdık.

Ön ve son işlemler konusunda çok detaya girmeyeceğim. Metin madenciliği yapan kişilerin çokca bildiği, veri düzeltmelerin bol bol olduğu, her şeyin tamam olduğunu düşündüğüz an bir problem gördüğünüz, bir çok kural yazdığınız bir süreç. Hem zahmetli hem de yorucu bir süreçtir.

Makalede geçen ülkeler, şehirler, kurumlar, kişiler, önemli günler, önemli olaylar, ilgi alanları, konusu, resim olup olmaması, video olup olmaması, videonun süresi, vb. gibi bir çok kategoride bileşenlerine ayırdık.

Her bir içeriğin, bulunduğu mecraya göre, sayfa görüntülenme, etkileşimi, RT, FAV değerlerini topladık.

bileşenlere ayırma

Çoğu kategorik olan bu bileşenleri modelleme sürecine giriştik. Bugüne kadar perakende sektöründe daha çok numerik değişkenlerle muhattap olmuştum. Bu sebeple kategorik değişkenlerin modellenmesi açıkçası biraz zorladı. Özellikle bu kategorik değişkenlerin Ordinal (sıralı) olmayışı, tamamen Nominal (atanmış) olması işleri daha da zorluyordu.

İki konu üzerine çok zaman harcadık. Dummy değişken oluşturulması ve Faktor Analizleri. (Yazar Notu: Yıl olmuş 2020 ve bunlar sizin için çok normal geliyor olabilir. Fakat 2016 yılında Türkiye’de bunları konuşan kişi sayısı emin olun çok azdı) Her bir kategorinin altında bir çok farklı alt başlık olduğu için ön işlem kısmında bunların çoğunu birleştirmiştik. Fakat yine de yüzlerce dummy değişkenimiz oluyordu. Faktör Analizleri ile en anlamlı olanları ile (yine 100 civarında) modelimizi kurmayı başardık.

İşin her aşaması zordu. Fakat en zoru, bu işin sürdürebilir bir şekilde çalışması ve ürüne dönüşmesiydi. Her yeni makale eklendiğinde, bileşenlerine ayrılması, tahmin yapılması, yazara sunulması, içerik yayınlandıktan sonra etkileşimlerin kaydedilmesi, modelin tekrardan buna göre çalışması ve bu sürecin problemsiz bir şekilde devam etmesi…

icerik potansiyel tahmini 2

Peki bu proje ne işe yaradı daha doğrusu nerede niçin kullanılacak?

  1. Yazının başarı puanına göre, o yazı için ne kadar reklam harcanmasının hesaplanması
  2. Yazarların başarısının ölçülmesi
  3. Bileşen ve kategorik ölçüm sonuçlarına göre içerik önerisinin yapılması

2- Twitter’da Benzer Kişilerin Bulunması Algoritması

Twitter’ın bendeki yeri ayrıdır. Tüm sosyal medya araçları bir yana twitter bir yanadır. Çünkü Twitter API’sı tüm sosyal medya araçlarının API’lerini döver, ikiye böler, beşle çarpar. Hem kullanması kolaydır hem dokumantasyonu iyidir hem de diğerlerinin vermediği bir çok bilgiyi size sunar. Bu sebeple bir çok projemizin temelinde Twitter bulunuyor.

Bu proje ar-ge olarak başlayıp, ardından bir teze ve sonrasında farklı makalelere temel oluşturan, ufuk açıcı, öğretici, şaşırtıcı bir projedir. (V1 tarafından verilen bir görev neticesinde ortaya çıkmıştır. Fikir babası V1’dir.)

Öneri algoritmaları içinde çok popüler ve kimsenin dilinden düşürmediği iki örnek vardır. Birincisi Amazon’un kitap öneri sistemi. Ben de kaç sene sunumlarımda bu örneği vermişimdir. İkincisi Netflix’in öneri algoritması. Hadi bir üçüncüsü de benden olsun. Spotify’ın şarkı öneri sistemi. (Diğer ikisini sanki mahallenin muhtarı söyledi?)

Bu algoritmalar, sizin daha önceki alışveriş, izleme ve dinleme geçmişinize göre ya da oluşturduğunuz beğeni vb. listelerinize göre, benzer kullanıcıların aktiviteleriyle eşleştirip, bunu seven bunu da sever mantığıyla çalışır. Anlatırken ne kadar da kolay 🙂 Bir cümle anlatabildiğime inanamıyorum.

Twitter’da da sizin ilgilendiğiniz konulara ve o zamana kadar takip ettiğiniz kişilere göre, kimleri takip edebileceğinizi önerir. Farkettiyseniz, Amazon, Spotify, Netflix, Twitter ve diğer tüm araçlar, sizin hareketlerinize göre öneri veriyor. Bu öneriler size özel. Sizin hareketlerinize özel. Peki soru şu, ben şu 3 kitabı sevdiysem acaba hangi kitabı okusam çok severim sorusunun cevabını veriyor mu? (Bunu veren harika bir uygulama var. GoodReads’i kullanmıyorsanız tavsiye ederim. Yine kişiye özel listelere göre çözüm üretse de, farklı listeler oluşturarak başarabilirsiniz.) Ya da şu 3 şarkı benim hayatımın şarkısı, bu şarkıları döndüre döndüre dinliyorum. Bunun gibi seveceğim 3 şarkı daha olsa of ki ne of.

İşte biz bunu Twitter için yaptık. Biribine benzediğini düşündüğünüz N tane kişi girdiğinizde, size benzer M tane kullanıcı veren bir algoritma geliştirdik. Hatta test etmek için, TRT World’de çalışan 5 editörün kullanıcı adlarını girdik, bize diğer editörleri ve TRT World’de çalışsa ne güzel olur diyeceğiniz editör ihtimallerini verdi.

Bu algoritmanın detaylarını burada anlatmayı çok isterdim. Kullanıcıların aktiviteleri, takip ettikleri, takipçileri, içinde bulunduğu networkler, istatistikleri, vb. bir çok bilgi kullanılarak kurulan bu model sayesinde doğru kaynaklara ulaşmayı başardık. Peki bu ne işe yarayacak ki?

Bir aktivite düzenlediğimizi varsayalım. Veri Bilimi hakkında olsun. Bu aktiviteyi herkesi çağırmak yerine sadece ilgili olan kişileri çağırmak istiyorsunuz. Bunu yapabilmek için tek tek arama yapmanız gerekecek. Fakat bu algoritma sayesinde, veri bilimi ile ilgili yazan ya da ilgilenen bir çok kişiye 90sn gibi bir sürede ulaşabiliyorsunuz.

Tanzanya’da Politik haber yapan 5 kişiden yola çıkarak, 60 farklı kişi daha bulup bunların her gün tweetlerini çekiğinizi düşünün. Bu tweetleri anlık bir dahsboard üzerinde yayınlayarak, Tanzanya’nın politik haberlerini takip edebilirsiniz ve içerik üretme konusunda kaçırdığınız noktaları tek noktadan takip edebilirsiniz. Tüm ülkeler için bunu yapıp, Dünya Atlası üzerinde kişi başına atılan tweet sayısını da renklendirirseniz, son 1 saat içindeki tweetler sayesinde, Politik olarak dalgalanan ülkeleri rahatlıkla yakalayıp bir hikaye oluşturabilirsiniz. Bu sadece bir örnek. Biraz önce bahsettiğimiz örnekteki gibi, işe alım yapacağımız kişilerin belirlenmesinde de kullanabiliriz 😛

3- Referandum

2017 yılının en büyük olaylarından biri de Referandum’du. Türkiye, Anayasa değişikliği için referanduma gitti ve biz de ekip olarak bu tarihi olayı yakından takip ederek çeşitli projelere imza attık.

Birincisi, Twitter’da referandum için kullanılan hashtaglerin geçtiği tweetleri anlık olarak (Stream) çekip bunları Evet, Hayır ve Nötr olarak kategorize edip, yine anlık olarak dahsboardlarda yayınlamaktı.

İkinci proje biraz ilginç bir projeydi. Biliyorsunuz ki, her seçim sonrasında açılan sandıklarla ilgili büyük bir tartışma başlar. İlk başta açılan sandıktaki yüzdelerle sondaki yüzdeler neden farklı olduğu konuşulur. Bunun bir gizli bir oyun olduğundan falan bahsedilir. Biz de Referandum özelinde, yasak kalktığı ilk andan itibaren, anlık olarak AA tarafından gönderilen veriyi görselleştirdik. Sandıkların açılış yüzdeleri ve şehirlerdeki referanduma verilen oy değişimini aşağıdaki şekilde görebilirsiniz. Ortada oyun falan yok gençler rahat olun 🙂

Referandum 2017

Yapmak İstediklerim(iz) ve Yapamadıklarım(ız)

Yazının buraya kadar olan kısmı 2017 yılında yazıldı. Yani TRT World’den  ayrılmadan önce. Buradan sonraki kısmı ise bugün yazıyorum. Aradan 3 sene geçmesine rağmen hala yapmak istediklerimiz aklımda.

Yukarıda yaptıklarımızın hepsinin bir amacı vardı. Bu amaçlara giden temel projelerdir. Haber Üreten Bir Araç yapmak istiyorduk. Yeni bir haberi yakalayacak, bu haberin kilit kelimelerini çıkaracak, bu kilit kelimelerinin üzerine bir metin yazacak ve bunu editörün önüne koyacak. Editör incelemeyi yaptıktan sonra yayınlayacak. Bu haberi yakalamak için, Twitter Network aracını geliştirmiştik. Bir sonraki aşamamız buydu

Her bir içeriğin, etkileşiminin tahmin edilmesini projesinin bir sonraki aşaması, hangi içeriğe ne kadar reklam verilmesinin otomatik karar verilmesiydi. İçeriklerin başarısının tahminin zaman ekseninde yapılması (yani bir içerik yayınlandıktan sonra tahminden sapmasının anlık olarak takip edilmesi) ve hangi içeriğe ne kadar reklam bütçesinin ayrılmasının optimize edilmesi olacaktı.

reklam yönetimi

Bir diğer proje hedefimiz, Sosyal Medya üzerinden kişilerin yazdıkları metinlerden, saykometrik (Psychometric) profillerin çıkarılması ve bunların kategorize edilerek, hangi içerğin kime yönlendirilmesi gerektiğinin A/B testing ile karar verilmesiydi. 2016-2017 yıllarında Facebook – Cambridge Analytica skandalı ortaya çıkmıştı ve bizde bu konuda çalışmaya başlamıştık.

Bu projeleri anlatırken gerçekten çok güzel fakat, ilk 6 ayımda çok büyük bir ikilemle karşılaştım. Veri Bilimci ikilemi.

Veri Bilimci İkilemi. Bence günümüz piyasasında da yaşanan en büyük ikilemlerden biri de bu. Şöyle anlatayım. Sizden iyi bir veri bilimci tanımı yapmanızı istesem nasıl tanımlarsınız. En az 1 yazılım dilini bilsin, matematik, istatistik ve algoritmalar konusularına hakim olsun yeterli (mi acaba?) İşte günümüzde bu ikisini bilen insanlar kendini Veri Bilimci olarak tanımlıyor. Ama burada büyük bir eksiklik var. İş Bilgisi! (Domain Knowledge) Eğer yapılan iş hakkında hiç bir bilginiz yok ise, problemi çözmek için sadece algoritmalar ve programlama beceriniz sizin için yeterli olmayacaktır.

TRT World’de işe başladığımda, kendimi sudan çıkmış balık gibi hissediyordum. Tam 10 senelik sektör tecrübem vardı. 10 sene dile kolay. Çok iyi algoritma yazarım, kod bilgim var, veri akışı ile ilgili efsane tecrübelerim var, mimari desen benden sorulur ama “Geleneksel Medya, Yayın (Broadcasting), Sosyal Medya” problemleri hakkında hiç bir fikrim olmadığı için 100 olan gücüm otomatik olarak 50’ye düşmüş oldu. Bir çok makale okudum, AJ+ başarı hikayelerini inceledim, çeşitli danışman firmalarının çözümlerine baktım ama her şey havada kalıyordu. İşin içine girmeden, amiyane tabirle elinizi kirletmeden bu iş olmuyor, olmaz, olmayacak. Benim ne yaptığımı anlamam ve verimli bir şeyler ortaya çıkarmam 3 ay sürdü. Biliyorum 3 ay çok uzun bir süre. Bu kadar uzun sürmesinin sebeplerinden biri, Medya sektöründe yeni olmam, diğeri ise tamamen farklı bir kültüre adapte olup yepyeni şeyler öğrenmek oldu. 3 ay içinde o kadar çok şey öğrendim ve deneyimledim ki, sanırım hayatımdaki en öğretici zamanlar oldu.

Öğrendiklerim

2016-2017 senesi benim için çok öğretici geçmişti. San Francisco gezisi ve NRF konferansından sonra TRT World de eklenince, öğrendiklerim arşa değmişti. 2020 yılından baktığınız zaman, çok etkileyici olmasa da 2016 yılı için zamanın ilerisindeydi.

TRT World haberleşmesini Slack, proje yönetimlerini de Trello ve Jira üzerinden yapıyordu. O zamana kadar çalıştığım şirketlerde bu uygulamaları bu kadar verimli kullananın görmemiştim. Proje yönetiminde Agile (Çevik) yönetim hakimdi ve haftalık, günlük toplantılarla projeler dolu dizgin ilerliyordu. Açık kaynak kodlu geliştirmeye önem veriliyordu ve Github’ı ilk orada kullandım. Python’da proje geliştirme ve bu geliştirilen projenin devreye alınmasındaki aşamalar harika bir tecrübeydi.

O güne kadar PC kullanan ben, Mac kullandım. İlk 2 hafta gerçekten çok zordu fakat sonrasında çok memnun kaldım. Oyun oynamıyor, kod yazıyor ve Excelle hiç işim olmaz diyorsanız Mac harika bir cihaz. Fakat oyun ve excel sizin için önemliyse, Mac’den uzak durun. Diğer herşey için Mac.

Son olarak, TRT World’deki en farklı deneyimim iletişim oldu. İletişim dili İngilizce olan bir yerde çalışmamıştım. Direktörüm Riyad (Güney Afrika), diğer yönetici arkadaşlar Ned (GA), Mak (GA), Derrick (ABD) ve Hüseyin (Türk). Güney Afrika İngilizcesini anlamak gerçekten uzun sürdü. LAGli yaşıyordum. Hele ilk zamanlarda toplantılarda konuşulanları anlayamıyordum. Her hafta pazartesi günleri yapılan toplantıları pür dikkat dinliyordum fakat anlamam 5sn gecikmeli oluyordu. Herkes bir espriye güldükten 5 sn sonra gülüyordum. Fakat 2 aydan sonra artık alışmıştım. Güzel bir tecrübeydi.

Duygularım ve Son Söz

15 Temmuz sonrasında bana kapılarını açan, harika bir ekiple çalışma fırsatı veren, İstanbul’un en güzel manzaralı ofisine sahip, çok güzel insanlarla tanıştığım güzide yer TRT World.

Çok uzun bir serüven değildi. LC Waikiki benim doğduğum yerse, TRT World gençliğimi geçirdiğim yer olarak tarihe geçti. (Koton da gençliğimi elimden aldı 😀 10 yaş yaşlandım. O güzel ekibim olmasaydı 20 yaş yaşlanırdım) Start-up kültüründe çalışmak, büyüyen bir organizasyonun parçası olmak, Türkiye’de ilk defa yapılan işlere imza atmak benim için harika bir tecrübeydi.

TRT World’e girmeme vesile olan üstat Uğur T.’ye, V1’e, Riyad’a ayrı bir teşekkür etmek istiyorum.

Duvarlar, ofisler, bahçeler, manzaralar… Hepsi iyi ve güzel insanlarla anlamlı oluyor. Yıllar sonra tekrar birlikte çalıştığımız sevdiğim insan Abdurrahman Abi, cuma yoldaşları güzel insanlar Fatih Abi ve Mustafa Abi, renk körü olduğuma benden daha çok üzülen UX Magician Burak, Hüseyin başkan ve güzel ekibi, V1, V2 ve tabiki Datahon Fatihi Crawlers. Yasin, Yavuz, Berk, Mehmet Emin ve Burak. Sadece bu 5’li ile tanışmak bile TRT World’de çalışmam için yeterliydi.

Böylece, 3 yazıdan oluşan ve tamamlanması 3 sene süren yazı dizimize de burada nokta koyuyoruz. Umarım keyifli ve faydalı bir yazı olmuştur. Eminim ben 296 defa daha bu yazıyı okuyacağım. Yazının burasına kadar geldiyseniz bir yorum yazar mısınız? Yazmak çok güzel, fakat okunduğunu bilmek çok daha güzel 🙂