- Reklam -
Ana Sayfa » Yazarlar

“Nedir bu Hadoop?”

Ayhan Sevgi Tarafından 21 Ocak 2013
0
4.0K Görüntülemeler



Apache-Hadoop güvenilir, ölçeklenebilir bir dağıtık hesaplama (distributed computing) ortamı yaratabilmek amacıyla ortaya çıkmış, açık kaynak kodlu bir yazılım geliştirme projesinden başka bir şey değil.
Bu projeye katkı verenler arasında Yahoo, Microsoft, Cloudera, facebook, linkedin, twitter, IBM gibi büyük yazılım şirketleri de bulunuyor.
Hadoop, basit programlama modeli kullanarak, kümelenmiş (cluster) bilgisayarlar arasında, büyük hacimli verilerin dağıtık olarak işlenmesini sağlayan bir yazılım kütüphanesi olarak ortaya çıktı. Tasarımı gereği, tekil bir sunucuda da, her birinin kendi CPU ve hafıza birimi bulunan binlerce sunucuyu barındıran bir küme (cluster) üzerinde de çalışabilir, büyüyebilir. Hadoop’un tasarımındaki önemli bir fark, bu yazılım geliştirme teknolojisinin, “High-Availability (HA)” ihtiyaçları için arka planda kullanılabilecek pahalı donanım çözümlerine ihtiyaç duyması yerine, kesintiyi uygulama seviyesinde fark edip, çözümleme üstüne tasarlanmasıdır. Hadoop, arka plandaki kümelenmiş bilgisayarların üstüne kurguladığı uygulama seviyesindeki HA çözümüyle farklı, ucuz bir alternatif olmayı hedefliyor.
Hadoop Projesi 4 modülden oluşuyor
• Hadoop Common: Bütün Hadoop modüllerini destekleyen ortak modüller.
• Hadoop Hadoop Distributed File System (HDFS): Büyük miktardaki veriye yüksek iş/zaman oranı (throughput) ile erişim sağlayan Dağıtık Dosya Yönetim Sistemidir. Birçok makinedeki dosya sistemlerini birbiriyle bağlayarak tek bir dosya sistemi gibi gözükmesini sağlar. HDFS, düğüm noktalarının (node’ların) her zaman yüzde 100 çalışamayacağını, kesintiler olabileceğini baştan kabul eder. Bu yüzden veri güvenliğini, verinin birden fazla düğüm noktasına kopyalayarak sağlar.
• Hadoop YARN: İş zamanlayıcı (job scheduler) ve kaynak yönetimini yapan bir dizi kütüphane.
• Hadoop MapReduce: YARN temelli, büyük miktarda veriyi paralel olarak işlemeye yarayan bir sistem. Gelen iş yükünü tanıyarak, arka plandaki bilgisayar düğüm noktalarına bu iş yükünü tahsis eden imkanlar sunar.
Hadoop kullanmaya başladığınızda, kesinlikle karşılaşacağınız Hadoop temelli bazı projeler de var. Bunlardan en popüler olan bazıları şöyle:
• Cassandra: Ölçeklenebilir, çok-nodlu, kümelenmiş veritabanı.
• Chukwa: Dağıtık ve Büyük Sistemleri yönetmek için veri toplama sistemi.
• Hive: Veri Özetleme ve “ad hoc” sorgu yazma ortamı sağlayan bir veri ambarı mimarisi.
• Pig: Paralel İşlem Tasarımı yapmak için hazırlanmış, veri akışlarını ve çalıştırma planlaması yapılabilecek bir dil.

Hadoop projesi ne getiriyor?
Hadoop, özellikle büyük hacimli verinin işlenmesinde, ekonomik değerleri ve dinamikleri kökten değiştirebilir. Çeşitli ihtiyaçlar için sistem mimarisi tasarlarken, ölçeklenebilirlik, süreklilik, hatadan kurtarma, paralel işlem yetenekleri, fiyat/performans, esnek tasarım gibi parametreler kullanıyoruz. Hadoop aşağıdaki 4 temel özelliği ile bu parametrelerin hepsinin aynı anda gerçekleşmesini sağlayabilir.
• Ölçeklenebilir: İhtiyaç duyulduğunda, verinin kendisini,  formatını, yerini değiştirmeden, çalışan işlerin ve uygulamaların nasıl yazıldığını dikkate almadan yeni düğüm noktası eklenebilir.
• Hesaplı Çözüm: Yüksek hacimli verinin, fazla CPU gücü ile işlenmesini gerektiren paralel çözüm ihtiyaçlarını, daha ucuz veya hesaplı bilgisayar altyapısı ile gerçekleştirilmesini sağlar. Sonuç olarak her TB Saklama alanı için maliyetler düştüğünden, kurumun bütün verisini fiyat endişesini daha ikinci plana iterek modellemesini sağlar.
• Esneklik: Hadoop’un şemasız, yapısal olan veya olmayan bütün veri tiplerini, her kaynaktan işleyebilen bir mimarisi var. Farklı kaynaklardan gelen, farklı veri tipleri birbirleriyle birleştirilip, özetlenebilir ve işlenebilir.
• Hatadan Kurtarma: Düğüm noktalarından biri ulaşılamaz olduğunda, sistem, gelen yükü diğer düğüm noktalarına paylaştırarak kesintisiz hizmete devam eder.

Hadoop size uygun mu?
Dünyadaki verilerin yüzde 80’i yapısal değil. Öyle ki, birçok kurum bu veriyi kendi avantajına dönüştürecek şekilde kullanma becerisi ve yatırım esnekliğinden de uzak. Bir an için hayal edin: Kurumun ürettiği veya kendisine dışardan gelen, istisnasız olarak her verinin gerektiğinde saklanabildiği, işlenebildiği, kurumun var olan diğer karar destek sistemleri ile bütünleşebilen, ölçeklenebilir, hesaplı, esnek bir mimari kurguluyorsanız, Hadoop temelli çözümleri düşünmenin zamanı gelmiş demektir.
Hadoop’un çalışması “Yığın İşlem – Batch Processing” üzerine kurulu. Veri ambarları ile bir Hadoop sistemi arasındaki en temel farklardan biri performans olacaktır. Dikkat edilirse, yukarıdaki değerlendirme parametreleri içinde perfromans bulunmuyor. Çünkü, veri ambarı sistemlerini karakterize eden erişim ve cevap süresi paternlerine baktığımızda, Hadoop temelli sistemlerde aynı beklenti içinde olmamız şimdilik doğru olmaz. Hadoop “Batch Processing” yapan bir çerçeve mimari sağlamaktadır ve cevap süresi olarak şimdilik veri ambarları ile aynı beklentide olmamak daha doğru olacaktır.
Örneğin; Bir Hadoop Sistemi, mevcut veri ambarı sisteminin arşivleme altyapısı için kullanılabilir. Müşteri Profillerini saklayan ve değerlendiren, iyi cevap süresi vermek üzere kurgulanmış ve yatırımı yapılmış bir veri ambarı sistemi, son iki yıllık bilgiyi saklarken, daha eski veriler bir Hadoop sistemine aktarılarak 20 yıllık bilgiler de burada saklanabilir ve gerektiğinde erişilebilir. Burada dikkat edilmesi gerekenlerden birisi de, SQL tabanlı olan veri ambarı sistemine erişen uygulamaların, aynı arayüzlerle Hadoop sistemine erişebilmeleridir; SQL ve NoSQL dünyasının bir arada çalışabilme gerekliliği vardır. Her iki mimari farklı hizmetler ve beklentiler için tasarlanmıştır, birbirinin yerini almak için değil, birbirini tamamlamak için kullanılmalıdır.
Hadoop’u kendiniz indirip kurup, kullanmaya başlayacağınız gibi, Hadoop Projesini destekleyen Microsoft, IBM gibi büyük oyuncuların kurumsal çözümleri ile de kullanmaya başlayabilirsiniz.
Hadoop, mevcut sistemlerinizin bir alternatifi değildir. Geleneksel veritabanı motorları ve yeni veri işleme motorları (Hadoop vb.) bir kurumun sol ve sağ kolları gibidir. Kuruma uyarlanacak büyük veri çözümünün, mevcut sistemle bütünleşmesi, ayrık şekilde çalışmıyor olması en önemli ön şartlardan birisi olmalıdır.
Yakında her eve bir “fil” girecek diyor Hadoop’u geliştirenler.
Hep beraber göreceğiz ve gerçek olup olmadığı da çok uzakta bir tarih değil!…

Ayhan Sevgi

BThaber Yayın Koordinatörü





Yazar

Ayhan Sevgi

BThaber Yayın Koordinatörü

Sonraki Habere Geç

Vestel yeni teknolojisini tanıttı

Bir Yorum Bırak

Bir yanıt yazın Yanıtı iptal et

Yorum yapabilmek için oturum açmalısınız.

  • Bizi takip etmek için

  • Popüler İçerikler

    • 1
      Stratejik teknoloji dikeyleri yatırımlarda başı çekecek
    • 2
      Türkiye’de yapay zekâ yetkinliklerine ilgi artıyor
    • 3
      Gündem yapay zeka ve uçtan uca entegre müşteri deneyimi oldu
    • 4
      PaperWork’ten “Agentic AI” adımı...

  • " Bu sitede yer alan yazılar (içerik) üzerindeki 5846 sayılı Fikir ve Sanat Eserleri Kanunu altında düzenlenen tüm maddi ve manevi haklar eser sahibi olan BThaber'e aittir. Söz konusu içerikler eser sahibinin izni olmadan kopyalanamaz, çoğaltılamaz, işlenemez, değiştirilemez veya başka internet sitelerinde ya da basılı veya görsel yayın yapan diğer mecralarda yayınlanamaz. "
    +90 216 2259442
    İletişim & Satış : info@bthaber.com.tr
    Bulten Gönderimi : bulten@bthaber.com.tr

    BThaber Bültenleri İçin Kaydolun





  • BThaber’de aramak için:

  • Son İçerikler

    • İstihdamda da GenAI yetkinliği belirleyici olacak
    • Güvenlik için güçbirliği!
    • Yazılımcı istihdamının gelişmesi için doğru adımlar atılmalı
    • Tüketici ürünlerinde başarının anahtarı inovasyon ve iş birliği
    • vMind, KOBİ'leri dijitalleşme yolunda destekliyor

  • KURUMSAL
  • KÜNYE
  • Anasayfa
  •   
  •  
  •   
© Copyright 1995 - 2025 BThaber | Powered By BUBERKA YAZILIM
Geldanlagen
Aramaya başlamak için birşeyler yaz ve enter tuşuna basın

Bildirimler