Big Data mit Apache Hadoop, Pig und Hive
Suchen Sie nach einem starken Partner, um ihre grossen Datenmengen in den Griff zu kriegen?
Die 2150 GmbH unterstützt Sie bei der Konzeption und Umsetzung von Business Intelligence Projekten mit Hadoop. Unser Hauptfokus liegt dabei darauf Ihnen eine funktionierende BI Lösung in die Hand zu geben, damit Sie Ihr Unternehmen besser steuern können mithilfe von zuverlässigen Kennzahlen. Sei dies um Kosten zu senken, die Qualität zu steigern oder gesetzliche Vorgaben zu erfüllen.
Dabei unterstützen wir Sie egal ob Sie grosse Mengen an Webevents oder Webserverlogs von Apache analysieren müssen, Smartmeters auswerten wollen, grosse Mengen an CDR Daten auswerten müssen oder realtime Börsenkurse oder Wetterdaten auswerten.
Damit Sie sich auf die Unternehmensführung konzentrieren können, übernehmen wir für Sie die Projektleitung und technische Umsetzung inkl. Installation und Setup Ihres Hadoop Clusters und Nodes mit HDFS, MapReduce, Pig oder Hive. Wir importieren gerne Daten aus bestehenden Datenbanken mit Scoop und legen ihre grossen Tabellen in HBase (BigTable) ab. Um eine kurze Einführungszeit zu erreichen, setzen wir dabei auf Cloudera oder Greenplum und Talend ETL Big Data Edition.
Kontaktieren Sie uns unverbindlich, um zu erfahren, wie wir Ihr Unternehmen unterstützen können.
Aus Wikipedia:
- Hadoop ist ein freies, in Java geschriebenes Framework für skalierbare, verteilt arbeitende Software. Es basiert auf dem bekannten MapReduce-Algorithmus von Google Inc. sowie auf Vorschlägen des Google-Dateisystems und ermöglicht es, intensive Rechenprozesse mit großen Datenmengen (Big Data, Petabyte-Bereich) auf Computerclustern durchzuführen. Hadoop wurde ursprünglich durch den Lucene-Erfinder Doug Cutting initiiert. Am 23. Januar 2008 wurde es zum Top-Level-Projekt der Apache Software Foundation. Nutzer sind unter anderem Facebook, a9.com, AOL, Baidu, IBM, Imageshack und Yahoo.
- Hive: Eine gängige Erweiterung von Hadoop ist Hive, welche Hadoop unter anderem um die Anfragesprache QL erweitert. QL ist eine auf SQL basierende Abfragesprache und ermöglicht dem Entwickler somit die Verwendung einer SQL-ähnlichen Syntax.
Im Sommer 2008 stellte Facebook, der ursprüngliche Entwickler von Hive, das Projekt der Open-Source-Gemeinde zur Verfügung.[4] Die von Facebook verwendete Hadoop-Datenbank gehört mit etwa 21 Petabyte (Stand: Mai 2010) zu den größten der Welt. Pro Tag kommen etwa 15 Terabyte an Daten hinzu.
Externe Links