Dosya 22 OCAK 2012 / 15:15

Veri artıyor dünya daralıyor

The Economist’in Haziran 2011’de gerçekleştirdiği bir ankete katılan 586 bilişim yöneticisinin yüzde 99’u kurumları içinde üretilen ve kurumları içinde üretilmese de kurum tarafından taşınmak zorunda olan toplam veri miktarının çok büyük bir hızda arttığını söylemişlerdi. Önceden Gmail, Facebook gibi internet üzerinden servis veren kurumların inanılmaz bir hızla büyüyen veri miktarları ve bununla başa çıkma hikâyelerini okuduğumuzu belirten Arena Bilgisayar Kurumsal Ürünler Grup Müdürü Cenk Soyluoğlu, “Bugünse akıllı kullanıcı arayüzleri ile çalışanlar ve tüketiciler internet üzerinden veri alıp veren tüm kurumları adeta bombardımana tutmaktalar. Çok  büyük şirketlerin kendi içlerinde ürettikleri veri miktarı da çok hızlı bir şekilde artmaktadır. Veri miktarındaki bu büyük artış, kurumların veri yönetimi uzmanlığı konusundaki ihtiyacını artırmıştır. Kendi içinde 100 milyar dolar olduğu tahmin edilen bu sektörün büyüklüğü her sene yaklaşık yüzde 10 artmaktadır. Yazılım sektörünün yaklaşık iki katı hızla büyüyen bu konu, üreticiler kadar katma değerli iş ortaklarının da yatırım yapması, kendilerini geliştirmesi gereken bir konu” dedi.
Geleneksel veritabanı sistemlerinin veri işleme kapasitelerini aşması durumuna büyük veri dendiğini ifade eden Avnet Veri Depolama Teknik Danışmanı Yusuf Akardaş, “Veri boyutları büyümekte, çok hızlı hareket etme ihtiyacı duymakta veya veri tabanının mimari yapısına uymamaktadır. Büyüyen veriyi yönetebilmek ve ihtiyaç duyulan değeri elde edebilmek için alternatif yeni yollar seçmek gerekir. Biz  Avnet olarak Türkiye’de EMC dağıtıcılığını yürütmekteyiz ve EMC çözümleriyle birlikte büyük veri çözümleri için özel ürünler ve çözümler sunmaktayız. Büyük veri kavramının öncülüğünü yapan EMC, çözümleriyle müşterilerimizin beklentilerini karşılamakla birlikte müşterilerimizin ihtiyaçlarına farklı bakış açılarıyla yaklaşmalarını sağlayarak işlerine değer katmaktadır” şeklinde konuştu.
Günümüzde veri merkezleri ve sunucu depolama alanında başvurulan en uygun çözümün bulut teknolojisi olduğunu belirten Cloudturk Genel Müdürü Mustafa Yazıcı, “Bulut teknolojisi ile sanallaştırma teknolojileri kullanılarak bir sunucu kümesinin istenilen şekilde parçalara bölünmesi veya bu küme üzerinde çalışan yazılım kaynaklarının yönetilmesi sağlanmaktadır. Bu noktada yedekleme ve arşivleme, bulut teknolojisini kullanmanın ilk adımıdır diyebiliriz. Bireysel alanda bilgi tüketiminin artması ve veri depolama ihtiyacı, kurumların buluta yatırım yapmalarını tetikleyen unsurlar arasında gösteriliyor. Özellikle güvenlik konusunda standartların oluşmaya başlamasıyla birlikte, kurumlar hızla bulut bilişimin en yalın hali olan IaaS’e (Infrastructure as a Service) yönelmeye başladı. IaaS’te sunucu kaynakları (İşlemci, bellek, disk, bant genişliği) üzerinde istenilen platform ve uygulamalar çalıştırılmaktadır” dedi.
Büyük veriyi, “Büyük bilgisayarlarda üretilen ve kullanılan veriden tutun da, cep telefonlarında ürettiğimiz sayısal verileri de kapsayan yapılandırılmış veya yapılandırılmamış verilerin bütünü” olarak tanımlayan Glasshouse Türkiye Satış Yöneticisi İlter İnanç, “Büyük veri genellikle yapılandırılmamış olduğundan, elde edilmek istenen bilgilere göre analiz edilip, sınıflandırılır. Bu süreçte üç temel ihtiyaç ortaya çıkmaktadır. Bunlar, verinin bozulmadan ve verimli şekilde saklanması, verinin kabul edilebilir sürede işlenmesi ve verinin elde edilen kaynağa veya veri tipine göre yapılandırılması/analiz edilmesidir” şeklinde konuştu.
Büyük veriyi geleneksel araçlarla analiz edilemez ve işlenemez bilgi olarak tanımladıklarının altını çizen IBM Türk Teknoloji Lideri Kıvanç Uslu, “Bizce büyük verinin üç ana özelliği bulunuyor. Bunlar, büyüklüğü, çeşitliliği ve hızı. Örneğin,  verilerin büyüklüğünü ele alırsak günümüzde bir günde üretilen veri miktarı 15 petabayta ulaşmış durumda ki bu veri ABD’deki tüm kütüphanelerdeki veri büyüklüğünün sekiz katı. Verilerin çeşitliliğini ele alırsak, yapısaldan yapısal olmayana kadar değişik tipte verileri içeriyor. Verilerin hızını ele alırsak, toplu işlerle akan verilerden, GPS, mobil gibi alanlarda akan anlık verileri içeriyor. İnternetin ve akıllı cihazların yaygınlaşması yapısal olmayan yoğun verileri artırdı. Bu verilerin analizi, öngörüsel analizi ve yöneticilerin karar alma süreçlerinde kullanımı önemli hale geldi. IBM, Akıllı BT kapsamında Akıllı Bilişim (Smarter Computing) girişimini öne çıkarmaktadır ve Akıllı Bilişim, yoğun verinin kullanılmasını, geleneksel veri ambarlarının ötesinde ve daha fazlasını sunan bir aşamadır. Giderek karmaşıklaşan ve birbiriyle bağlantılı hale gelen bir dünyada yaşıyoruz” dedi.
Şirket olarak temel faaliyetlerini şirketlerin elinde bulunan veriyi işleyip bilgi üretmek ve bunu bir katma değere çevirmek olarak tanımladıklarını ifade eden Intellica Çözüm Mimarı Yavuz Gökırmak, “Verinin analiz edilerek değere dönüştürülmesi sürecinde neler yapılması gerektiği; işlenen verinin türü, hedeflenen bilginin yapısı, işlemin karmaşıklığı veya bu işlemin yapılma sıklığı gibi farklı faktörlerden etkileniyor. İş dünyasında veriyi temel olarak üç noktada konumlandırabiliriz. Veriyi konumlandırabileceğimiz ikinci nokta ise farklı kaynaklardan gelen verilerin merkezi bir yerde toplanması ve analiz edilmesi oluyor. Analizler veritabanları yardımıyla yapılarak, karar vericilere analitik bir bilgi sunulması hedefleniyor. Şirketlerin büyük bir bölümünde bu yönde çözümler bulunuyor” dedi.
Büyük veri ile çalışma bazı sektörler için yeni olabilir ama uzun süre büyük veri ile çalışmış bulunan tecrübeli bir kadroya sahip şirketimiz açısından bakıldığındauzun yıllardır var olan ve tecrübe sağlanan bir konu. İnternetteki sosyal medya kullanımının yaygınlaşması ile yapılandırılmamış verinin birkaç yıl öncesine göre önemli miktarda artmasının konunun çok konuşulmasını sağladığını belirten Likya Teknoloji Yönetici Ortağı Hakan Sarıbıyık, sözlerini şöyle bitirdi: “Bu anlamda ülkemiz hem akademik olarak, hem de ticari olarak konuya yeterince hazırlıklı değildir. Yerli şirketlerin Ar-Ge çalışmaları yapması eskiye göre çok daha hayati hale gelmiştir. Bu anlamda şirketimiz önemli ön yatırımlar yapmıştır.”
Microsoft İş Platformu Ürün Yöneticisi Gökben Utkun ise şöyle konuştu:
“Ancak bu verinin dışında çok büyük değer taşıyan ve son döneme kadar çok fazla kullanılmayan ve yapısal olmayan büyük miktarda veri de bulunuyor. Bloglar, sosyal ağlarda paylaşılan veriler, muhtelif sensörlerden toparlanan veriler, elektronik postalar, fotoğraflar, videolar, web loglar gibi. Diğer yandan pek çok endüstri eğilimi geleneksel veri yönetimi, iş zekâsı platform ve araçları üzerinde baskı meydana getiriyor.”

Boyut, hız ve format
Araştırmaların önümüzdeki dönem verinin boyutu, teslimat hızı ve formatlarının karmaşıklaşacağı ve elimizdeki teknolojilerin geleneksel veri yönetim yeteneklerini yönetmede yetersiz kalacağı yönünde olduğunun altını çizen Oytek Teknolojik Hizmetler Veritabanı Hizmetleri Müdürü M.Cem Malkoç, “Büyük veri kısaca herhangi ilişkisel veritabanları ile yönetilemeyecek büyüklükte olup büyümeye sürekli devam eden verilerdir. IDC‘nin yayınladığı bir rapora göre 2020 yılında günümüzdeki sayısal büyüklüğün 44 katı civarında bir sayısal dünya ile karşılaşacağımız yönünde. İşletmeler bu devasa hız ve çeşitlilikte artan verileri depolanması ve analiz edilmesinde çok sorun çekecekler. Biz BT profesyonelleri de buna çözüm bulmak üzere bu günden neler yapılacağını konuşuyor durumdayız” dedi.
Büyük verinin her teknoloji şirketi gibi kendileri için de önemli bir ilgi alanı olduğunu vurgulayan Symantec Güneydoğu Avrupa ve Türkiye Bölge Teknoloji Müdürü A. Burak Sadıç, “Müşterilerimiz her geçen gün verinin büyümesi, veri alışveriş hızlarının artması ve veri tipleriyle kaynaklarındaki çeşitlilik ile uğraşmak zorundalar. Biz de hem onlara yardımcı olmak hem de kendi sistemlerimizde biriken büyük veriyi bir avantaja çevirmek için yoğun olarak çalışıyoruz. Bu alandaki çalışmalarımızın en önemli örneklerinden birisi yüz milyonlarca müşterimizden sürekli olarak toplanan verilerle oluşturduğumuz davranış temelli güvenlik sistemimiz “Security Insight”. Bu sistem sayesinde zararlı yazılımları kullanıcılarımıza zarar vermeden ve herhangi bir virüs imza güncellemesine ihtiyaç duymadan engelleyebiliyoruz” dedi.
Büyük veri pazarının, uzunca bir süredir her yıl katlanarak büyüdüğünü ve bununla birlikte organizasyonların elinde yapısal olmayan, son derece dağınık bir veri hacmi biriktiğini belirten Teknotel ve Telehouse İstanbul Genel Müdür Yardımcısı Duru Komaz, “Ses, video, taranmış dokümanlar, görseller, metin tabanlı içerik, sosyal medya akışları, kısacası her türlü içerik, büyük veri sınıfına giriyor. Yapılan araştırmalar, veri miktarının 2020 yılında yıllık yüzde 44 oranında bir büyüme rakamına ulaşacağını öngörüyor ki bu ciddi bir büyüme oranı. Bu artıştan da anlaşılacağı gibi büyük verinin hem depolanması hem analizi büyük bir sorun haline dönüşüyor. İnternet ve veri merkezi servisleri sağlayan bir şirket olarak kendi penceremizden bakınca, veri miktarı ve paylaşımının artmasının, kurumların veri merkezlerinin hacmini, karmaşıklığını ve buna bağlı olarak kaynak ve işletme maliyetlerini de artırdığını görüyoruz. Bu artan hacim ve maliyetler, kurumları kaynakları etkin bir yaklaşımla kullanmaya mecbur ediyor. Mevcut kaynakların etkin kullanılmasına yönelik sanallaştırma çözümleri de bizi bulut bilişim kavramına götürüyor” dedi.
Büyük veri kavramının, veri analizi ve yönetimi konusunda ürün, hizmet ve çözümler sunan şirketler için son zamanların en sıcak ve güncel konusu olduğunu belirten Teradata Türkiye Telekom Sektörü Çözüm Mimarı Mehmet Demirciler, “Teradata olarak büyük veri kavramından sadece işlenen veri hacminin büyümesini değil aynı zamanda karakteristiğinin değişmesini anlamaktayız. Bu da daha farklı analiz yöntemleri, veri yapıları ve ilk defa kullanılacak uygulama çeşitliliği demektir. Yüksek ölçekli veri ambarı ve iş analitiği konusunda lider konumda olan Teradata, yapılandırılmamış büyük veri analizi konusunda lider olan Aster Data’yı 2011 yılı başında satın aldı. Teradata, bu satın alma ile büyük ve yapısal olmayan veri analizi konusunda önemli miktarda tecrübe birikimi ve teknolojiyi bünyesine katmış oldu” dedi.
Turknet Sistem Birim Müdürü Onur Ertem şunları söyledi:
“Terim olarak büyük veri, geleneksel yapıdaki ilişkisel veri tabanları ve araçları ile yönetilemeyecek büyüklükteki dosya yapılarından oluşan ve büyüme eğilimine devam eden verilerdir. Tipik olarak, sosyal medya gönderimleri, sensör ağlarındaki ölçüm verileri, mobil şebekelerdeki lokasyon bilgileri, e-ticaret siteleri üzerinden gerçekleştirilen işlemler, web portalleri erişim kayıtları gibi ASCII dosyalar ve fotoğraf, video ve Tıbbi Dijital görüntüleme kayıtları gibi binary verileri örnek olarak gösterebiliriz.”

Oguzhan Bayburs“Kavram yokken çalışmalar vardı”

DataDirect Networks’ün (DDN), dünyanın en büyük özel veri depolama altyapısı sağlayıcısı olduğunu iddia eden DDN Türkiye Genel Müdürü Oğuzhan Bayburs ise bu konuda şunları söyledi:
“Günümüzün yoğun ve yapılandırılmamış veri gereksinimlerine özgün ve titiz şekilde odaklanan DDN, dünyanın en yüksek veri yoğunluklu ortamları için optimize edilmiş “Büyük Veri” uygulamalarında kapsamlı ürün portföyü yenilikleri getirmiştir. DDN henüz “Büyük Veri” terimi bulunmadan önce, “Büyük Veri” ile ilgili zorluklar üzerinde pek çok yönden uzmanlaşmaktaydı. Büyük dosya depolama sistemlerinin ve titiz uygulamaların gereksinimlerini on yıldan uzun süredir destekleyen DDN, hem alan uzmanlığında hem de günümüzün yeni, devasa veri artışında eşitsizlik yaratacak şekilde avantajlı durumdadır. Uygulama bazlı iş ortaklarının ve büyük sistem bütünleştiricilerinin oluşturduğu dünya çapında bir ağ ile işbirliği yapan DDN, “Büyük Veri” çağında ilk hamle avantajından yararlanmak için ideal konuma sahiptir. Yeni veri jeneratörleri elde etmek, analiz etmek ve bir anlayış geliştirmek isteyen işletmeler tarafından “Büyük Veri”nin tüm endüstrilerde daha demokratikleştirilmiş ve yaygın hale gelmesiyle, DDN her yerde bilginin değerini en yükseğe çıkaracak organizasyonları etkin kılmaya devam edecektir.”

Kadir Uyar“Artan veri miktarı konuyu gündeme taşıdı”

Büyük verinin bir terim olmasından ziyade her türlü yapılandırılmamış sürekli büyüyen veri birikiminin karakterizasyonu olduğunun altını çizen Oracle Türkiye Satış Danışmanlığı Kıdemli Müdürü Kadir Uyar, “Büyük veri, katlanarak büyüyen, ham ve ilişkisel veritabanı tekniklerini kullanarak analiz edilmeye uygun olmayacak kadar yapılandırılmamış veri setlerini tanımlamaktadır. Büyük veri maliyet, işleme ve saklama kolaylıkları nedeniyle dağıtık ve küçük sunucular üzerinde yer almaktadır,  web servisleri sunan şirketlerin web üzerinde her gün yüklenen yüksek miktardaki veriyi işlemesi için 2000 li yılların başında kullanmaya başladıkları dağıtık mimari ve paralel işleme metodu bugün pek çok şirketinde gündemine girmiştir. Gündemde olmasının sebebi büyük bir ivme ile artan veri miktarıdır, büyük veri kapsamına girebilecek büyüklükteki verilerin kaynağı genellikle webden toplanan karışık formattaki verilerin yanında makineler tarafından üretilen verilerdir” dedi.

Onder SonmezAltyapılar çok önemli

IDC’nin gerçekleştirdiği Dijital Evren araştırması yıllık veri miktarının 2020’de yüzde 44 oranında artacağını öngörüyor. Üretilecek bu verilerin yaklaşık yüzde 90’ını yapılandırılmamış büyük verinin oluşturacağını belirten EMC Türkiye Genel Müdürü Önder Sönmez, şöyle konuştu:
“Yapılandırılmamış verilerin büyük kısmını da mobil cihaz kullanıcılarının kaydettiği resim ve videolar oluşturacak. 2011 yılı son iki ayında sayısal dünyaya yönetilmesi gereken yaklaşık 500 katrilyon yeni dosya eklendi. Veri miktarı olağanüstü düzeyde artacak ancak, BT çalışanlarının sayısı yüzde 50’nin altında bir oranda artacak. BT bütçelerinin yaklaşık dörtte üçü, yani ortalama yüzde 73’ü, mevcut altyapı ve uygulama sistemlerini devam ettirmek için harcanıyor. Bütçelerin yalnızca yüzde 27’si şirketlerin rekabetçi yönlerini geliştirmek, müşterileri ile ilişkileri sıkılaştırmak ve rakiplere karşı avantajlara sahip olmak için harcanıyor.”
İşletmelere bulut bilişim ve gelişmiş veri depolama çözümleri aracılığıyla maliyetlerini nasıl düşürebileceklerine, işte verimliliği ve çevikliği nasıl artırabileceklerine ve büyük verinin gücünü tam anlamıyla nasıl ortaya çıkarabileceklerine dair öneriler getirdiklerini de belirten Sönmez, sözlerini şöyle bitirdi:
“EMC’nin görevi müşterilerini bulut bilişime geçiş süreçlerinde yönlendirmek ve onların BT altyapılarını dönüştürmelerine yardımcı olmaktır. Mevcut geleneksel BT altyapıları oldukça pahalı olmanın yanında, karmaşıklığı ve esnek olmaması nedeniyle de kurumlar açısından zorlayıcı olabiliyor. EMC olarak kurumların daha etkin ve çevik olması gerektiğini düşünüyoruz. Bulut bilişim, kurumların geleneksel BT altyapılarındaki zorlayıcı unsurları bertaraf etmeleri ve esneklikten uzak BT altyapılarını daha çevik ve verimli yapılara dönüştürmek için doğru yöntemdir. Bulut bilişim ve büyük verinin BT sektöründeki en etkili ve çarpıcı yenilikler.”
ETİKETLER : Sayı:855