Dosya İş Analitiği ve Optimizasyon 03 ŞUBAT 2014 / 08:34

Analizlerin doğruluğu için veri kalitesi şart

Veri kalitesinde standardizasyonu yakalamak, kurumlara kaliteli bilgiye sahip olma, buna paralel olarak doğru kararlar alınmasını sağlıyor.

Veri kalitesi iş analitiğinde en önemli konulardan. Doğru analizi yapabilmek için güvenilir ve tutarlı veriyi kullanmak gerekiyor. Burada uygun çözümler ve standardizasyon sunulamadığında kullanıcıların yanlış bilgi üzerinden hareket etmesi olasılığı doğuyor. Bu sayede kullanıcılar iş analitiği sonuçlarının doğruluğundan emin olarak karar alabiliyorlar.
Anadolu Bilişim Kurumsal Uygulama Hizmetleri Müdürü Atakan Karaman, veri kalitesinde standardizasyonu yakalamak için yapılması gerekenlerle ilgili şunları söyledi: “Veri kalitesi, yapılacak olan analizler sonucu ortaya çıkan beklentilerle doğru orantılıdır. Bilgi raporlamasının ayrıntı seviyesi, oluşturulacak bilgi havuzunda bu bilgilere uygun verileri barındırma ihtiyacını doğuracaktır.
Toplanan verinin farklı kaynaklardan alınması, her bir bütünleşme yapılan noktadan alınan verilerin standart olmasını ve eğer farklılık oluşursa, bunların standart yapılara çevrilme düzenlemelerinin yapılmasını gerektirmektedir. Bu sayede temiz ve nitelikli veri ile elde edeceğimiz analitikler, kaliteli bilgiye sahip olmamızı ve şirketimiz için alacağımız kararlarda doğru seçimler yapmamızı sağlayacaktır.”
Veriler kaliteli ve güvenilir olmalı
Bimsa İş Zekâsı Takım Lideri Altay Rodoplu, veri kalitesinde standardizasyonla ilgili şunlara dikkat çekti: “Şirketlerin iş analitiklerini verimli kullanabilmeleri için öncelikle verilerinin kaliteli, güvenilir ve tutarlı olması gerekir. Özellikle veri hacminin büyük olduğu ve farklı kaynaklardan verilerin toplandığı hatta yapısal olmayan verilerin de bulunduğu ortamlarda veri kalitesi çözümlerine ihtiyaç duyuluyor. Veri kalitesi projelerinde öncelikle sağlam bir profillendirme yapılması gerekiyor. Verinin platforma giriş aşamasından istenilen son aşamaya kadar ki bu genellikle rapor aşaması oluyor, sürecin takip edilmesi gerekir. Ardından şirketteki yazılımları ve ihtiyaçları dikkate alarak farklı birimlerinden kişilerin de olduğu ortamda verinin formatına karar verilip standardizasyon sağlanmalı. Formata karar verildikten sonra veri temizleme çalışmalarına başlanmalı.”
“İş analitiğinde veri kalitesinin önemi çok büyük. Analitik projelerinde veri hazırlama aşaması, proje planında en büyük zamanı kapsıyor” diyen Turkcell Global Bilgi, Bilgi Teknolojileri Genel Müdür Yardımcısı Fahri Arkan, sözlerini şöyle sürdürdü: “Buna bağlı olarak veri kalitesinin sağlanması için veri doğrulama, veri temizleme ve günlük kontroller şeklinde akışlar olması gerekiyor. Veri akışlarının sonlarına verinin kalitesini ölçecek kontrollerin konulması, sorunlu verinin kural bazlı veya veri madenciliği teknikleriyle düzeltilmesinin sağlanması yapılabilecek çalışmalar arasında yer alıyor.
Güvenilir bir veri stratejisi şart
Obase Genel Müdürü Dr. Bülent Dal, güvenilir veri stratejisinin gerekliliğine dikkat çekti: “Her gün ERP, CRM ve diğer başka kaynaklardan gelen kalitesi, geçerliliği belirsiz, standardize edilmemiş ve tekrarlı veriler kontrol edilemez bir şekilde artmaktadır. Şirketlerin bu verileri olduğu halde kullanarak stratejik kararlar almaları ise imkansızdır. Güvenilir bir veri temeli ve stratejisi oluşturmak işin en başıdır ve iş analitiği çözümlerinin şirketlere verimli bir şekilde katkı sağlaması ancak güvenilir bir veri stratejisi ile sağlanabilir.”

Metin işleme yazılımları kullanmak artık bir zorunluluk

“Bu soruyu konu bağlamında büyük veri ile ilişkilendirerek cevap vermek doğru olacak. Belli alana hapsedilmiş veri kalitesi çözümleri bu dünyada sıkıntılara yol açar” diyen Likya Teknoloji Genel Müdür Hakan Sarıbıyık ise veri kalitesinin önemini bir örnekle açıkladı: “Örnek olarak, belli bir ürün grubu için müşteri memnuniyetini artırmayı hedefleyen bir şirketi ele alalım. Bunun için internette hedeflenen ürün grubu için serbest metin olarak yazılan müşteri görüşlerini rutin olarak topluyor. Bu metinler müşterinin eğitim durumunu, yaşadığı bölgeyi, hatta yaş grubuna göre kullandığı kısaltma ve deyimleri yansıtıyor doğal olarak. Şirketin daha önceki alışkanlıklarla kontrolü kendisinde olan girişlere göre yapacağı bir veri kalitesi süreci burada başarısız olacaktır. Bu nedenle daha iyi ve genel çözümlere ihtiyaç duyuluyor ve standardize etmek için metin işleme yazılımları kullanmak artık bir zorunluluk. Yani veri girişlerinin şirketin kontrolünde olduğu bir dünyadan  olmadığı bir dünyaya uyum sağlayacak şekilde hedeflenen amaca göre bir standardizasyon gerekiyor. Bunun için yerel dil ve yerel kullanıma uygun çözümler önceden olduğundan daha önemli bir fark yaratacaktır.”

Veri kalitesi bir düzen içinde takip edilmeli

“Veri kalitesi projelerinde bir metodoloji takip etmek çalışmaları kolaylaştırmaktadır” diyen SAS Türkiye Analik Çözümler Lideri Özlem Akpınar, SAS’ın veri kalitesi metodolojisini şöyle anlattı: “SAS’ ın veri kalitesi metodolojisi 3 temel adımdan oluşmaktadır: Planlama, aksiyon alma ve gözlemleme. Planlama adımında verilerin kalitesi incelenerek, gerekli aksiyonların planlanması yapılır. Planlanan aksiyonlar doğrultusunda veri kalitesi düzeltme işleri hazırlanır ve çalıştırılır. Verinin kalitesinin ne kadar arttırılabildiğinin takip edilmesine yönelik çalışmalar ile bu adımlar tamamlanır. Bu adımlar bir defa gerçekleştirilebilecek bir işlem gibi değil, devamlı çalışacak bir döngü olarak görülmesi daha uygundur. Dolayısıyla veri kalitesi çalışmalarının standart bir metodoloji üzerinden yapılması gerekmektedir.”

Veriyi toplarken format önceden belirlenmeli

Proline Ürün Müdürü Veli Hazar, “Verinin birçok kaynaktan toplandığını düşünecek olursak, mükerrer kayıtların önlenmesi, verinin analiz sonrası sağlayacağı katkının kalitesi açısından son derece büyük öneme sahiptir” dedi ve ekledi: “Daha da önemlisi veriyi toplarken talep edilecek bilgilerin formatının en başta belirlenmesi gerekmektedir. Bu iki konuda standardizasyon oluşturmadan atılacak adımlar hem verinin kalitesini düşürür, hem de elde edilen analiz sonuçları yanıltıcı olabilir.  Bu doğrultuda veri sürecinin kurum içerisinde bir sahibi olmalı ve sürekli olarak standartlara uyumu kontrol etmeli, gerekli görülen iyileştirmeleri düzenli olarak hayata geçirmelidir.”

Çalışma planı yapılarak veri kalitesi artırılabilir

KoçSistem Ar-Ge ve İş Uygulamaları Danışmanlık Direktörü Ömer Özgür Çetinoğlu, “Verilerin yapılandırılması ve doğru bilgiye dönüştürülmesi veri yönetiminin en önemli aşamalarındandır. Veri yönetimini sağlayabilmek için veri karakteristiğinin belirlenmesi, verinin sınıflandırılması ve ilişkilendirilmesi gerektiği için veri doğruluğunun sağlanması da hayati öneme sahip bir diğer aşama olarak görülmektedir” dedi.
Çetinoğlu, sözlerini şöyle sürdürdü: “Şirketler kurumsal veri yönetimini belli bir vizyon çerçevesinde değerlendirerek veri yönetişimi stratejilerini mutlaka oluşturmalıdır. Veri ile ilgili yapılacak her türlü işlemin; oluşturulacak politika, prosedür ve standartlar çerçevesinde veri yönetişimi ile yönetilmesinin sağlanması şirketin, kurumsal analitik olgunluğunu geliştirecektir. Operasyonel sistemlerden üreyen verinin doğruluğunu ve kullanılabilirliğini iyileştirerek hatalı veri oluşumunu engellemek için problemin belirlenmesi, mutabakat sağlanması, örneklendirilen veri üzerinde ölçme ve belirleme çalışmalarının gerçekleştirilmesi, düzeltme planının oluşturulması, uygulanması ve son aşamada düzeltilen kısmın gözlemlenmesi şeklinde bir çalışma planı yapılarak veri kalitesi artırılabilir.”
ETİKETLER : Sayı:957