Big Data-Verarbeitung mit Apache Spark & ​​Scala



Apache Spark hat sich als großartige Entwicklung in der Big-Data-Verarbeitung herausgestellt.

So erstellen Sie eine Sitzung in Java

IST: 7:00 AM – 08:00 AM, 17th October’14





PDT: 18.30 - 19.30 Uhr, 16. Oktober ’14

Begrenzte Plätze !! Füllen Sie das Formular rechts aus und buchen Sie noch heute Ihren Platz.



Hallo zusammen, wir führen am 18. Oktober 14 ein kostenloses Webinar zu Apache Spark und Scala durch. Der Titel des Webinars lautet 'Big Data-Verarbeitung mit Apache Spark und Scala' . In diesem Webinar werden die wesentlichen Themen zu Apache Spark und Scala erörtert. Fragen oder Zweifel können während der Sitzung geklärt werden.

Zu behandelnde Themen:

  • Was ist Big Data?
  • Was ist Spark?
  • Warum Funken?
  • Funken-Ökosystem
  • Ein Hinweis zu Scala
  • Warum Scala?
  • Hallo Funke - Hands on

Warum Funken?

Apache Spark ist ein Open-Source-Cluster-Computing-Framework für Hadoop-Community-Cluster. Mit seiner unübertroffenen Geschwindigkeit, Benutzerfreundlichkeit und ausgefeilten Analyse qualifiziert es sich als eine der besten Datenanalyse- und -verarbeitungs-Engines für große Datenmengen. Im Folgenden sind die Vorteile und Funktionen aufgeführt, die Apache Spark zu einem Crossover-Hit für operative und investigative Analysen machen:

  • Die über Spark entwickelten Programme laufen 100-mal schneller als die in Hadoop MapReduce entwickelten.
  • Spark kompiliert 80 übergeordnete Operatoren.
  • Spark Streaming ermöglicht die Datenverarbeitung in Echtzeit.
  • GraphX ​​ist eine Bibliothek für grafische Berechnungen.
  • MLib ist die Bibliothek für maschinelles Lernen für Spark.
  • Spark wurde hauptsächlich in Scala geschrieben und kann in jedes JVM-basierte Betriebssystem eingebettet werden. Gleichzeitig kann es auch auf REPL-Weise (Lesen, Auswerten, Verarbeiten und Laden) verwendet werden.
  • Es verfügt über leistungsstarke Caching- und Festplattenpersistenzfunktionen.
  • Mit Spark SQL können SQL-Abfragen effizient verarbeitet werden
  • Apache Spark kann über Apache Mesos, Yarn in HDFS, HBase, Cassandra oder Spark Cluster Manager (Spark-eigener Cluster-Manager) bereitgestellt werden.
  • Spark simuliert den Funktionsstil und die Sammlungs-API von Scala, was für Scala- und Java-Entwickler von großem Vorteil ist.

Notwendigkeit für Apache Spark:

Spark bietet der Branche enorme Vorteile in Bezug auf Geschwindigkeit, Vielzahl der Aufgaben, Flexibilität, Qualitätsdatenanalyse, Kosteneffizienz usw., die die Anforderungen des Tages sind. Es bietet der IT-Branche High-End-Big-Data-Analyselösungen in Echtzeit und erfüllt damit die steigende Kundennachfrage. Echtzeitanalysen nutzen Geschäftsfunktionen zu Haufen. Die Kompatibilität mit Hadoop macht es den Unternehmen sehr einfach, es schnell zu übernehmen. Es besteht ein großer Bedarf an Experten und Entwicklern, die von Spark gelernt haben, da dies eine relativ neue Technologie ist, die zunehmend übernommen wird.