Big Data mit Apache Hadoop, Pig und Hive

Suchen Sie nach einem starken Partner, um ihre grossen Datenmengen in den Griff zu kriegen?

Die 2150 GmbH unterstützt Sie bei der Konzeption und Umsetzung von Business Intelligence Projekten mit Hadoop. Unser Hauptfokus liegt dabei darauf Ihnen eine funktionierende BI Lösung in die Hand zu geben, damit Sie Ihr Unternehmen besser steuern können mithilfe von zuverlässigen Kennzahlen. Sei dies um Kosten zu senken, die Qualität zu steigern oder gesetzliche Vorgaben zu erfüllen.

Dabei unterstützen wir Sie egal ob Sie grosse Mengen an Webevents oder Webserverlogs von Apache analysieren müssen, Smartmeters auswerten wollen, grosse Mengen an CDR Daten auswerten müssen oder realtime Börsenkurse oder Wetterdaten auswerten.

Damit Sie sich auf die Unternehmensführung konzentrieren können, übernehmen wir für Sie die Projektleitung und technische Umsetzung inkl. Installation und Setup Ihres Hadoop Clusters und Nodes mit HDFS, MapReduce, Pig oder Hive. Wir importieren gerne Daten aus bestehenden Datenbanken mit Scoop und legen ihre grossen Tabellen in HBase (BigTable) ab. Um eine kurze Einführungszeit zu erreichen, setzen wir dabei auf Cloudera oder Greenplum und Talend ETL Big Data Edition.

Kontaktieren Sie uns unverbindlich, um zu erfahren, wie wir Ihr Unternehmen unterstützen können.

Aus Wikipedia:

  • Hadoop ist ein freies, in Java geschriebenes Framework für skalierbare, verteilt arbeitende Software. Es basiert auf dem bekannten MapReduce-Algorithmus von Google Inc. sowie auf Vorschlägen des Google-Dateisystems und ermöglicht es, intensive Rechenprozesse mit großen Datenmengen (Big Data, Petabyte-Bereich) auf Computerclustern durchzuführen. Hadoop wurde ursprünglich durch den Lucene-Erfinder Doug Cutting initiiert. Am 23. Januar 2008 wurde es zum Top-Level-Projekt der Apache Software Foundation. Nutzer sind unter anderem Facebook, a9.com, AOL, Baidu, IBM, Imageshack und Yahoo.
  • Hive: Eine gängige Erweiterung von Hadoop ist Hive, welche Hadoop unter anderem um die Anfragesprache QL erweitert. QL ist eine auf SQL basierende Abfragesprache und ermöglicht dem Entwickler somit die Verwendung einer SQL-ähnlichen Syntax.
    Im Sommer 2008 stellte Facebook, der ursprüngliche Entwickler von Hive, das Projekt der Open-Source-Gemeinde zur Verfügung.[4] Die von Facebook verwendete Hadoop-Datenbank gehört mit etwa 21 Petabyte (Stand: Mai 2010) zu den größten der Welt. Pro Tag kommen etwa 15 Terabyte an Daten hinzu.

 

Externe Links

 

Kommentare sind geschlossen

Datenquellen erschliessen

Datenquellen erschliessen

Wir filtern aus verschiedensten Datenquellen genau die Rohdaten heraus, die für Ihr Unternehmen relevant sind.

Wir extrahieren aus Datenbanken, SAP Systemen oder aus Webseiten, Excel-Sheets und vielen anderen Quellen, wie zum Beispiel E-Mails und Textdateien.

Wissen destillieren

Wissen destillieren

Anschliessend konsolidieren und bereinigen wir die Daten aus Ihren IT Systemen und verknüpfen sie mit externen Quellen.

So destillieren wir wertvolle Informationen und legen die Grundlage für eine mitwachsende und zukunftssichere Wissensbasis.

Richtig entscheiden

Richtig entscheiden

Damit Ihnen die relevanten Informationen im richtigen Moment zur Verfügung stehen, visualisieren wir diese und machen sie in Echtzeit durchsuchbar.

So erhalten Sie die Grundlage für fundierte Analysen und die Basis für richtige Entscheidungen.

Standorte in Zürich und München

Wir betreiben zusammen mit unserem Partner Ventum Consulting Büros in Zürich und München. Von Zürich aus bedienen wir die Schweiz.
Vom Standort München aus betreuen wir Deutschland.

Mehr als 30 Fachkräfte

Zusammen mit unseren Partnern haben wir über 30 Spezialisten in verschiedenen Feldern in unserem Portofolio. Sieben davon im Bereich Data Warehousing und Daten-Migrationen.

Anbieter unabhängig

Um sie bestmöglich beraten zu können, verzichten wir bewusst auf die Bindung an einen speziellen Anbieter. Unser Geschäft besteht daraus Ihnen Lösungen zu bieten und nicht Lizenzen zu verkaufen.

Fragen kostet nichts..

... und wird Ihnen einen Mehrwert bringen. Fragen Sie uns unverbindlich an für alle Datawarehousing / Daten Migrationsprojekte!