Big Data & Cloud

Big Data & Cloud 2014

Big Data ist ein neues Paradigma mit dem Ziel, Wissen aus Daten durch die Nutzung großer Datenmengen in einer Vielzahl von Datenformaten mit entsprechender Geschwindigkeit zu extrahieren. Cloud Computing zielt auf die Bereitstellung allgegenwärtiger On-Demand-Zugänge zu einem gemeinsamen Cluster von Rechenressourcen mit einem Fokus auf Elastizität und Automatisierung ab. Beide setzen auf neuartige Muster der transparenten Verteilung, Auto-Skalierung und Bereitstellung, fokussieren sich aber auf verschiedene wichtige Aspekte: Daten bzw. Computing. Dieser Track beschränkt sich auf Neuerungen in diesen Bereichen der Informatik und ihrer Anwendbarkeit auf verschiedene Bereiche der Forschung und Wirtschaft, insbes. auf folgende Themen:
Cloud Computing: Neuheiten in Cloud-Architekturen, Wolke Interoperabilität, Wolke Migration und Scale-Out, Service Level Agreements und ihre (automatisierte) Verhandlung.
Big Data: Neuheiten in Big-Data-Architekturen und Frameworks, große Lagerung oder Verarbeitung Frameworks, Big Data Analytics, Framework zur Unterstützung groß angelegter maschinelles Lernverfahren bzw. Implementierungen von Algorithmen, Big Data Visualization: Neuheiten / Anwendungen in / oder (interaktiv) Visualisierung großer Datenmengen.
Anwendungsszenarien und Business Cases: Anwendungen zur Einbeziehung von Big Data oder Cloud-Technologien in verschiedenen Bereichen wie Mobilität, Gesundheitswesen, Notfallmanagement, die digitale Archivierung, Business Showcases.

 

Big Data & Cloud 2014

Big Data is an emerging paradigm dealing with the objective to extract value from data by incorporating large-scale data sources, a variety of data formats, as well as their velocity. Cloud Computing aims at transparently providing ubiquitous on-demand access to a shared set of compute resources with a high focus on elasticity and automation. Both rely on novel patterns in transparent distribution, auto-scaling and provisioning but focus on different major aspects: data versus computing. This track will focus on novelties in both areas of computer science and their applicability to various domains of research and business, in particular the following topics:
Cloud Computing: Novelties in Cloud Architectures, Cloud Interoperability, Cloud Migration and Scale-Out, Service Level Agreements and their (automated) Negotiation,  
Big Data: Novelties in Big Data Architectures and Frameworks, large-scale storage or processing frameworks, Big Data Analytics, frameworks supporting large-scale machine learning and/or large-scale implementations of algorithms, Big Data Visualization: Novelties/Applications in/or (interactively) visualizing large-scale datasets
Application Scenarios and Business Cases: Applications incorporating Big Data or Cloud technologies in various domains such as mobility, health-care, emergency management, digital preservation, Business Showcases.

 

Abstracts Big Data & Cloud


Mi: 10.30 - 12.00
Dr. Martin Köhler, Mobility Department, Austrian Institute of Technology:
The Apache Hadoop Big Data Stack

The Apache Hadoop ecosystem is a widespread toolchain of Big Data technologies including databases, massively parallel platforms, and higher-level technologies. In this talk we will provide a profound overview of the basic Apache Hadoop framework for distributed processing of large data sets across clusters of computers using simple programming models. Furthermore, the emerging set of novel projects ranging from automatic provisioning (e.g. Apache Ambari), scalable machine-learning (e.g. Apache Mahout) to novel high-level programming paradigms (e.g. Apache Spark, Apache Drill) will be highlighted.


DI Matthias Steinbauer, Institut für Telekooperation, Johannes Kepler Universität Linz
Real World Applications for Large Scale Stream Processing

Big Data processing is in a big hype right now. For Big Data batch processing the Apache Hadoop ecosystem provides a well-established “data-operating” system which developers can use in their Big Data projects. However, another dimension of Big Data is also the velocity of data. There are in fact scenarios where data is arriving at such high speeds at a system that conventional ways of message processing are not sufficient anymore. The Big Data arena provides tools such as message queues, stream processors, and rule evaluators to cope with the velocity dimension.

Mario Meir-Huber, IDC Austria
Cloud Interoperabilität oder der Weg zum erfolgreichen Scale-Out
Cloud Interoperability or How to successfully scale-out.


Cloud Computing is speeding up in adoption globally. New platforms also emerge on that and Platform as a Service gains momentum. But how is interoperability achieved once you select one platform? In this talk, we will first look at interoperability challenges associated with Cloud Computing, then an outline of existing standards and libraries will be given. At the end of the talk, a new Library will be presented.

Mi: 13.00 - 14.30
Rainer Stropek, CEO, Co-Founder Time Cockpit, Philipp Aumayr MSc, Senior Software Engineer Time Cockpit
Learnings from Time Cockpit in the Microsoft Azure Cloud

Schlagwörter wie „PaaS“ oder „DevOps“ sind derzeit in aller Munde. Doch welche Auswirkungen haben sie in der Praxis? In dem Vortrag sprechen Philipp Aumayr und Rainer Stropek über ihre mittlerweile vier Jahre an Erfahrungen als SaaS Anbieter in der Azure Cloud. Welche Vor- und Nachteile hat PaaS? Ist DevOps Theorie oder kommt ein ernsthaftes Service tatsächlich ohne dedizierte Administratoren aus? Solche und ähnliche Fragen, Sorgen und aber auch Antworten werden im Vortrag behandelt.