Dosya 13 MAYIS 2012 / 17:45

Büyük veri yeni platformları beraberinde getiriyor

Gartner Danışmanı Halil Aksu, Google önderliğinde başlayan sonra Yahoo, Amazon, Facebook tarafından devam ettirilen, çoğunlukla Apache Foundation açık kaynak projeleri olarak devam eden yaklaşım, teknoloji ve çözümlerden bahsedildiği için Hadoop’un öne çıktığını açıkladı. Bunların yanı sıra devam eden onlarca yaklaşım, kurulan düzinelerce şirket ve yapılan yüzlerce proje olduğuna dikkat çeken Aksu, bir anlamda bilgi endüstrisi kurulduğunu ifade etti.
Facebook ve Google’da başarısını kanıtlamış Hadoop’un büyük veriyi depolama ve analiz etmeden birçok avantaj sunduğuna değinen Intellica Genel Müdürü Evrim Yetişmiş, “Hadoop özel bir donanım gerektirmiyor ve elinizde bulunan “normal” cihazları birbirine bağlanarak daha yüksek bir işlem/depolama gücü elde ediliyor. Bu güçlü yapının üstünde bulunan açık kaynak kodlu ve lisans maliyeti olmayan Hadoop ailesindeki yazılımlarla bir çözüm üretilebiliyor. Sistem genişletilmek istendiği zaman “normal” bir cihaz daha eklemek yeterli oluyor. Maliyet avantajına ek olarak, dağıtık yapının getirdiği bir performans avantajından da söz etmek gerekiyor. Analiz işlemleri farklı cihazlara dağıtıldığından dolayı klasik sistemlerden daha kısa bir sürede analiz sonuçları elde edilebiliyor” dedi.
Dev şirketlerin sahip oldukları verilerin büyümesini gördükten sonra büyük veri teknolojilerine eğildiklerini aktaran Komtaş Bilgi Yönetimi Yazılım Ekip Lideri Selçuk Bozdağ, “Bu konuda ilk öncü Google şirketidir. Google araştırmacıları 2006 yılında yayınladıkları bir makalede ‘Bigtable’ adını verdikleri dağıtık bir veri saklama ortamını açıklamışlardır. Bigtable, ilişkisel veritabanlarından farklı bir yapıda veri organizasyonu gerçekleştiriyor ve petabayt seviyelerinde verileri ‘sunucu çiftliklerinde’ saklayıp analize imkan tanıyor. Ancak BigTable, Google’ın kapalı bir ürünü olduğundan diğer şirketler ve açık kaynak geliştirici grupları farklı sistemler geliştirmeye yöneldiler” dedi.
Hadoop’un Yahoo şirketinin öncülüğünde başlatılmış bir proje olduğuna değinen Bozdağ, daha sonra Apache Software Foundation’a hakları verilmiş ve lisansı Apache olarak değiştirildiği bilgisini verdi.
Büyük veri konusunda DDN WOS ile büyük verinin depolanması, uzun süre tutulması ve analiz edilerek işlenmesi hiper ölçekteki verilere çok yüksek hızlarda dünyanın herhangi bir yerinden erişim sağlayarak, küresel olarak yayılmış kullanıcıların güçlü bir iş akışının parçası gibi işbirliği yapabilmelerine olanak tanıdıklarının altını çizen DDN Ülke Müdürü Oğuzhan Bayburs’a göre, Apache Hadoop’un popülerliğinin altında açık kaynak kod ve iyi bir pazarlama başarısı bulunuyor.
Bayburs, Hadoop’un hakkını teslim ederken inovasyon ve yaratıcı girişimlerin daha iyi sonuçlar alması için pek de yeterli olmadığını dile getirdi. Ayrıca Bayburs, Hadoop’un alternatifi olarak DiscoProject platformunun kullanılabileceği bilgisini verdi.

Verileri kısa sürelerde analiz geleneksel yöntemlerle mümkün değil
Elde edilen verileri bir veritabanına aktararak kısa sürelerde analiz etmenin geleneksel yöntemlerle artık pek mümkün olmamaya başladığını aktaran EMC Kıdemli Teknoloji Danışmanı Emin Çalıklı, bunun nedenlerini ise şu şekilde açıklıyor: “Ürettiğimiz verilerin yüzde 90’a yakın bir kısmı yarı yapısal ya da yapısal olmayan verilerden oluşuyor. Değişik birçok kanaldan gelen veriyi neredeyse gerçek zamanlı olarak analiz etmek zorunda kalıyoruz. Günümüzde insanların kurumla olan ilişkilerinden dolayı üretilen verilere ek olarak sosyal medya ve üçüncü partilerden toplanan veriler de analiz havuzuna girmeye başladı.”
Büyük veri konusunda öne çıkan donanım platformlarında EMC’nin Greenplum Modüler Veri İşleme Cihazı’nı örnek veren Dojop Teknoloji İş Geliştirme Uzmanı Filiz Babacan, yazılımsal olarak IBM’in InfoSphere BigInsights çözümü ile Hadoop’u öne çıkardı.

Serdal_MermerHadoop Google’ın harita uygulamalarından yola çıkılarak hazırlandı

SAP HANA (High Performance Analytic Appliance) çözüm yelpazesi altında üretilen büyük hacimli ayrıntılı bilgiler temelinde operasyonlar analiz edilebilir hale geldiğini vurgulayan Intelart Genel Müdürü Serdal Mermer, “SAP HANA geleceğin süreçlerinin oluşturulmasında kurumlara ölçülebilir faydalar sağlıyor” dedi.
Asıl olarak bir yazılım çerçevesi sağlayan Apache Hadoop’un serbest bir lisans altında her tür veriye duyarlılık gösteren dağıtık uygulamaları desteklediğini hatırlatan Mermer, uygulamaların binlerce bilişsel bağımsız bilgisayar ve petabayt boyutunda veriyle aynı anda çalışmasını sağladığının altını çizdi. Mermer, bu sistemin, asıl olarak Google tarafından geliştirilen harita ve dosya uygulamalarından yola  çıkılarak hazırlandığı bilgisini veriyor.

Geleneksel ilişkisel veritabanı mantığı yetersiz kalıyor

Büyük veri konusunda Hadoop platformunun neden öne çıktığını açıklayan Teradata Çözüm Mimarı Kıvanç Kışlal, büyük veri analizlerinde ihtiyaç duyulan veri işleme mantığının ve analitik özelliklerin geleneksel ilişkisel veritabanı mantığında çözümlenemiyor olmasının en önemli sebepler olduğunu vurguluyor. Kışlal’a göre, Hadoop bu noktada başarılı bir MapReduce uyarlaması olarak bu alandaki ihtiyaca cevap veriyor fakat oldukça yazılım geliştirme ağırlıklı olan bu çözüm, kurumsal firmaların Hadoop uyarlaması gerçekleştirmelerinde zorluklar yaşatıyor.
Ayrıca Teradata’nın kendi çözümü Aster Data’dan da söz eden Kışlal, “Aster Data ise yönetilebilirlik açısından baktığımızda bir veritabanı yazılımı. Aster Data patentli SQL Map-Reduce dili ile kompleks analitik özelliklerini SQL dilinin kolaylığı ile son kullanıcılara açarak basit bir şekilde büyük veri üzerinden analizler yapılmasını sağlıyor” açıklamasında bulundu. Aster Data’yı şu anda LinkedIn, Barnes&Noble ve MySpace gibi önemli siteler kullanıyor.
ETİKETLER : Sayı:871
YORUMLAR
İnterpromedya Haber Merkezi 14 MART 2014 / 06:54 0 0
Ferda hanım merhaba,
Dosya konularımızda dosyayı hazırlayan arkadaşımızın ismi sadece ilk sayfada oluyor. Takip eden sayfalarda ise isim kullanılmıyor.
Dikkatiniz ve ilginiz için teşekkürler.
Fatih Sarı