MSE

Tourismus Fachbereich

Tourismus

Tourismus ist eine vielschichtige, internationale Wachstumsbranche. Der Fachbereich mit dem Institut für Tourismus und Freizeit ist ein innovatives, unternehmerisches und praxisorientiertes Bildungs-, Forschungs- und Dienstleistungszentrum mit Bachelor- und Master-Studiengängen. Erfahrene Dozierende und Expertinnen und Experten befassen sich mit Destinations- und Hospitalitymanagement, Gästeverhalten und Nachhaltigkeit.weiter
Fachbereich Management

Management

Wirtschaft und Verwaltung stellen hohe Anforderungen an Führungskräfte. Verlangt werden fundierte fachliche und methodische Kenntnisse sowie hohe Sozialkompetenz. Führungskräfte müssen in der Lage sein, zur Erneuerung und Entwicklung von Organisationen beizutragen. Es genügt nicht, Bestehendes zu verwalten und zu bewahren. Gefragt sind unternehmerisches Denken und Handeln. weiter
Fachbereich Informationswissenschaft 01

Digital Science

Mit einem Studium in Information and Digital Science erlangen Studierende die erforderlichen Kompetenzen für den Umgang mit Fragestellungen der digitalen Welt und unsere heutigen Informationsgesellschaft. Auf die Absolventinnen und Absolventen wartet eine breite Spanne an interessanten Berufsbildern. weiter

Technik

Unseren hohen Lebensstandard verdanken wir nicht zuletzt den Ingenieurinnen und Ingenieuren. Einige Beispiele verdeutlichen dies: statt zu Fuss können wir uns mit Eisenbahn, Auto oder Flugzeug fortbewegen, und dank des Mobiltelefons können wir an jedem Ort telefonieren. Damit wir aber weiterhin den technischen Fortschritt mitgestalten können, brauchen wir Ingenieurinnen und Ingenieure. weiter
Ingenieurbau-Architektur

Ingenieurbau/Architektur

Aufgrund der geographischen Lage der HTW Chur inmitten der Alpen und den spezifischen Fragestellungen, mit welchen ein Bergkanton wie Graubünden konfrontiert ist, fokussiert das Institut für Bauen im alpinen Raum IBAR mit seinem Studiengang Ingenieurbau/Architektur, seine praxisorientierten Projekte und Zielsetzungen auf den Alpenraum. weiter
Fachbereich Medien

Multimedia Production

Studierende erlangen technische Kompetenz für ein multimediales Umfeld, genauso wie Sprachkompetenz und die Fähigkeit Inhalte zu visualisieren. Teil der Ausbildung ist das Produzieren von Inhalten unter realistischen Bedingungen in einem eigens konzipierten Produktionsraum für Medienobjekte, getreu dem Churer Studienmodell «Studieren und Produzieren». weiter

Projekt- und Masterarbeiten

2015

Hosted Lync Server 2013

Planung und Implementation eines Unified Communications-Dienstes als Hosted PBX

 

Student: Michael Hedinger

Referent: Beat Bigger

Korreferent: Prof. Bruno Wenk

Auftraggeber: ONAX AG

Während dieser Projektarbeit wurde für die Firma ONAX AG eine Umgebung aufgebaut, welche es dem Unternehmen ermöglichen sollte, Ihren Kunden das Produkt Microsoft Lync als Dienst anzubieten. Microsoft Lync dient zur Kommunikation innerhalb einer Firma, aber auch gegen aussen, sei dies in Form von Sofortnachrichten, Telefongesprächen oder Konferenzen. Dieser Dienst sollte die bestehende Cloud-Produktepalette der ONAX AG ergänzen.
Dieses Ziel wurde nicht erreicht, da sich während der Projektzeit ein wichtiger Einflussfaktor verändert hatte: die umgesetzte Lösung wurde durch Microsoft im Juli 2014 als „End Of Life“ deklariert. Somit bleibt die umgesetzte Lösung eine Pilot-Umgebung, an welcher jedoch bereits viele Erfahrungen gesammelt werden konnten.

Anhand der gegebenen Infrastruktur und Inputs der technischen Direktion der ONAX AG wurde zuerst eine Anforderungsliste erstellt. Es wurden auch Überlegungen angestellt, welche Vorteile der neue Dienst gegenüber bestehenden Lösungen hat. Anhand der Anforderungen wurde ein Systemdesign entwickelt. Dabei musste beachtet werden, dass bestehende Hosted Exchange-Kunden einfach in das neue Kommunikationssystem integriert werden können. Schliesslich wurde das Design umgesetzt und das System getestet.
Bei der Umsetzung einer „Hosted PBX“-Lösung dürfen Überlegungen zur Dienstgüte (Quality of Service) respektive der von einem Benutzer wahrgenommenen Qualität (Quality of Experience) nicht zu kurz kommen. Diesen Aspekten wurde in einem separaten Kapitel Rechnung getragen.

(Projektarbeit, Februar 2015)

2014

Shortest Path Subsequence Kernel

Ein Tree Kernel für ein Relation Extraction System.

 

Student: Norman Süsstrunk

Referent: Prof. Martin Studer

Korreferent: Prof. Dr. Albert Weichselbraun

Auftraggeber: HTW Chur

In dieser Arbeit wurde eine Relation Extraction System als Komponente für ein umfangreiches NLP- und Information Retrieval System entwickelt. Relation Extraction bezeichnet die Erkennung von semantischen Beziehungen zwischen Named Entities innerhalb von natürlichsprachigem Text. Eine Named Entity beschreibt die textliche Nennung eines realen Objektes. Die aktuellen Forschung auf dem Gebiet des Information Retrievals zeigen, dass die Verwendung von Support Vector Machines für unterschiedliche Klassifikationsprobleme sehr gute Ergebnisse liefert. Eine Support Vector Machine löst ein Klassikationsproblem auf der Grundlage eines Kernels, welcher die Ähnlichkeit zwischen den zu klassizierenden Instanzen beschreibt. Ein solcher Kernel kann für den Vergleich von unterschiedlichsten Strukturen verwendet werden. Diese Eigenschaft hat zu der Entwicklung und Erforschung von unterschiedlichen Tree Kernel geführt. Die Relation Extraktion kann als Klassikationsproblem aufgefasst werden, welches mittels einer Support Vector Machine gelöst werden kann. Die syntaktische Struktur eines Satzes, welcher eine Relation beschreibt, wird mittels eines Dependency Tree beschrieben. Für die SVM wird dann ein Tree Kernel deniert, welcher solche Baumstrukturen in der Form des Dependency Tree verwendet, um die Ähnlichkeit zwischen Relation zu berechnen.

In dieser Arbeit wurden die nötigen Grundlagen erarbeitet, welche zu der Entwicklung des Shortest Path Subsequence Kernel geführt haben. In Java wurde anschliessend eine Komponente entwickelt, welche den Kernel für eine bestehende SVM-Software implementiert. Eine Evaluation des entwickelten Systemes mit einem Korpus zeigt, dass der entwickelte Kernel für die Relation Extraction gute Resultate liefert.

 

(Masterarbeit, Dezember 2014)

Validierung von INTERLIS 2-Transferdateien

 

Student: Lukas Toggenburger

Referent: Prof. Martin Studer

Korreferent: Prof. Stefan Keller, HSR Rapperswil

Auftraggeber: Schweizerischen Bundesarchiv

INTERLIS 2 ist ein generischer Schweizer Standard für die Beschreibung und den Austausch von Geodaten. Für die amtliche Vermessung in der Schweiz ist dessen Verwendung gesetzlich vorgeschrieben. INTERLIS 2 Datensätze bestehen einerseits aus einem Datenmodell in Textform, das die Art der Geodaten ähnlich wie UML beschreibt. Andererseits bestehen die Datensätze aus Transfer-Dateien im XML-Format, welche man sich als konkrete Instanzen der Datenmodelle vorstellen kann. Derzeit gibt es nur proprietäre oder unvollständige Lösungen für die Überprüfung von Transfer-Dateien auf Korrektheit. In dieser Masterarbeit wird die in Java geschriebene FOSS Softwarebibliothek "xtfvt2 (XML Transfer File Validation Tool, ungefähr: XML Transfer-Dateien Validierungswerkzeug) für die Validierung von INTERLIS 2 Transfer-Dateien präsentiert. Die Verwendung von xtfvt wird am Beispiel von JHOVE2 gezeigt, einem Framework für die Charakterisierung und Validierung von digitalen Objekten, das in der digitalen Langzeitarchivierung verwendet wird. Den Abschluss der Masterarbeit bildet eine Liste von Empfehlungen an das INTERLIS Standardisierungsgremium bezüglich dem kommenden INTERLIS 2.4 Standard.

 

(Masterarbeit, Dezember 2014)

Automatische Erkennung von Drohungen in Texten

Konzepte und Implementation von Annotatoren für IBM Content Analytics (ICA) zur Erkennung von Drohungen in Texten für kriminaldienstliche Untersuchungen.

 

Student: Stefan Lütolf

Referent: Prof. Martin Studer

Korreferent: Prof. Dr. Albert Weichselbraun

Auftraggeber: HTW Chur

Die Abteilung Technische Ermittlungsunterstützung der Kantonspolizei Zürich beschäftigt sich mit der Analyse von (textuellen) Daten im Vorfeld oder in der Nachbearbeitung von Kriminalfällen. Ein möglicher Anwendungsfall ist die Analyse von Text-Nachrichten, wie z.B. SMS- oder WhatsApp-Mitteilungen, auf Drohungen. Da bisher alle Text-Nachrichten von Hand durchgesehen wurden, soll die Analyse in Zukunft durch Tools unterstützt werden.

Das Ziel dieser Masterarbeit ist es, für die technische Ermittlungsunterstützung sinnvolle Erweiterungen bezüglich der Erkennung von Drohungen zu entwickeln. Für die Umsetzung dieser Aufgabe werden konzeptionelle Ansätze zur Erkennung von Drohungen in der Literatur untersucht und beurteilt. Anhand dieser Beurteilung kann ein Ansatz implementiert werden. Das Produkt IBM Content Analytics erlaubt die Analyse von textuellen Daten und ermöglicht es, auch kundenspezifische Funktionalitäten umzusetzen. Da IBM Content Analytics momentan wenig Funktionalität in Bezug auf die Erkennung von Drohungen anbietet, kann dazu ein Annotator implementiert werden. Ein Annotator markiert den Text mit zusätzlichen Informationen (Annotationen), wie z.B. der Annotation „Drohung“. Die Funktionalität für den Drohungs-Annotator soll in dieser Masterarbeit implementiert werden.

Ein Bestandteil des Resultats ist die Beurteilung der konzeptionellen Ansätze zur Erkennung von Drohungen aus der Literatur. Anhand dieser Beurteilung ist ein Annotator zum Erkennen von Drohungen für den Einsatz mit IBM Content Analytics entwickelt worden.

 

(Masterarbeit, September 2014)

Relation Visualization

Student: Norman Süsstrunk

Referent: Prof. Martin Studer

Korreferent: Prof. Dr. Albert Weichselbraun

Auftraggeber: HTW Chur

Diese Projektarbeit entstand im Auftrag des Forschungsprojektes WISDOM (Web Intelligence for Improved Decision Making) an der HTW Chur. Wisdom kombiniert Konzepte aus Business Intelligence und Web Intelligence Systemen. Es benutzt dazu neben firmeninternen Daten auch frei verfügbare Daten aus dem Internet und im speziellen aus Social Media Kanälen wie Facebook oder Twitter. Es werden moderne Verfahren aus der maschinellen Sprachverarbeitung (Natural Language Processing) eingesetzt, um die Textdaten zu strukturieren und bezüglich Trends zu analysieren. Dies ermöglicht wirtschaftliche Trendanalysen. Die Relation Extraction Komponente extrahiert Beziehungen zwischen Entitäten in Texten. Als Entitäten in Texten werden Personen, Organizationen und geographische Orte bezeichnet. Relationen bezeichnen die Beziehungen zwischen den Entitäten. Die Analyse einer grossen Sammlung von Wirtschaftsnachrichten führte zu einer Vielzahl von extrahierten Relationen.

Das Ziel dieser Projektarbeit war, diese Relationen mittels einer Visualisierung darzustellen. Die Visualisierung sollte in eine Webapplikation integrierbar sein. Für das Verständnis der zu visualisierenden Daten wird ein Überblick über das Verfahren der Relation Extraction gegeben. Anschliessend werden die entwickelten Konzepte der Visualisierung vorgestellt. Aus den Daten wurden weitere Metriken abgeleitet, um die Visualisierung bezüglich ihrer Aussagekraft zu optimieren. Mit Einsatz des D3 Framework wurde ein Prototyp entwickelt, um die Konzepte zu überprüfen.

(Projektarbeit, Februar 2014)

OpenStack Cloud Computing

Student: Stefan Lütolf

Referent: Prof. Martin Studer

Korreferent: Beat Bigger

Auftraggeber: HTW Chur

 

Die Idee dieser Projektarbeit besteht darin, eine Cloud Infrastruktur für das Telecom Labor der HTW Chur aufzubauen. Anhand dieser Cloud kann Infrastruktur auf Abruf bereitgestellt werden. Dies ist unter dem Namen „Infrastructure as a Service“ (IaaS) bekannt. In anderen Worten soll es möglich sein, Infrastruktur wie z.B. Server per Knopfdruck zur Verfügung zu stellen. Damit können die Lehre und die Praktika der HTW Chur unterstützt werden.

Das Resultat der Arbeit ist eine betriebsfähige Cloud, welche „Infrastructure as a Service“ (IaaS) anbietet. Damit können virtuelle Maschinen erstellt und verwaltet werden.

(Projektarbeit, Februar 2014)

OSM Inspector reloaded

Student: Lukas Toggenburger

Referent: Prof. Stefan Keller, HSR

Korreferent: Prof. Martin Studer, HTW

Auftraggeber: Geofabrik GmbH, Karlsruhe

 

OpenStreetMap is a collaboratively maintained geodatabase. Its content is edited by an open community, similar to Wikipedia. Roads, buildings and postal addresses can be entered among other features.

figure1
Figure 1: Screenshot of the OSM Inspector’s user interface

Currently, the database and available editors provide very limited possibilities to easily detect erratic address entries such as typing errors. To mitigate this situation, the german OSM consulting company Geofabrik GmbH created a tool called “OSM Inspector”, which lets mappers see potential errors in postal address data and other categories as well. One of its unique features is the ability to match and visualize postal addresses to their belonging streets by so-called connection lines (see Figure 1). The process of computing the necessary data proved to be complex and time-consuming: Parts of the planet file are loaded into a local PostGIS database to be processed, exported, loaded into another remote PostGIS database and be displayed using UMN MapServer (see Figure 2 left).

figure2
Figure 2: Data flow diagram for the current (left) and new implementation (right)

Specific goals addressed in this project thesis are a substantial reduction of execution time to do calculations on a global scale and conversion to an object-oriented architecture to provide a basis for future development. Thus, software which simplifies this process by directly converting OSM files to SQLite output processible by the UMN MapServer is presented (see Figure 2 right). Challenges stemmed from the need of holding data from the world-wide set of streets and making them available for rapid calculation of connection lines for every addressed object in the OpenStreetMap database. These were addressed by indexing techniques involving names and approximate positions of streets. It waspossible to improve the execution speed by a factor of five.

(Projektarbeit, Februar 2014)

2013

Einbindung interaktiver Karten aus OpenStreetMap in EPUB3-basierte eBooks

Student: Lukas Toggenburger

Referent: Prof. Bruno Wenk

Korreferent: Prof. Martin Studer

Auftraggeber: HTW Chur

 

EPUB3 ist der breit akzeptierte Standard für «enhanced E-Books», welche
interaktive Elemente wie Quiz oder dynamische Grafiken enthalten. Open-
StreetMap (OSM) ist eine frei verfügbare Datenbank von Geodaten (z.B.
Strassen, Gebäude), welche mittels Crowdsourcing erfasst worden sind. In
dieser Projektarbeit wurde eine auf JavaScript basierende Software erstellt,
um Autoren und Produzenten von «enhanced E-Books» beim Einbinden
von interaktiven Karten, basierend auf OSM Daten, zu unterstützen. Um
die Wünsche und Bedürfnisse von Benutzern solcher Karten zu ermitteln
wurde eine Umfrage erstellt und durchgeführt. Die Software unterstützt Produzenten indem sie sie Kartenbilder («Kacheln») und passende Metadaten
(EPUB Manifest Einträge) einer gewünschten Region als lokal generierte
Zip-Datei herunterladen lässt. Die heruntergeladenen Kacheln können dann
vom Produzenten als einzelne PNG-Bilder ins EPUB-Archiv übernommen
und mittels der Leaflet Bibliothek angezeigt werden.

(Projektarbeit, August 2013)

Nutzung von Dateiablagen zur Klassifizierung von Mails

Diplomand: Stefan Lütolf

Referent: Prof. Martin Studer

Korreferent: Prof. Dr. Niklaus Stettler

Auftraggeber: HTW Chur

 

Grundidee: In der Bachelorarbeit „intelligente Mailarchivierung in Microsoft Outlook“ wurde die automatische Klassifizierung von Mails realisiert, wobei als Klassen die in Outlook vorhandene Verzeichnisstruktur verwendet wurde.
Diese Methode hat den Nachteil, dass das Model für die Klassifikation nicht firmenübergreifend eingesetzt werden kann, da nur die Mailablagen einzelner Mitarbeiter, aber keine firmenspezifischen Dokumenten, welche typischerweise projektorientiert in Dateisystemen abgelegt werden, berücksichtig werden.

Ziel: Die Dokumente in den Projektablagen im Dateisystem sollen bei der Klassifizierung berücksichtigt werden. So soll als Produkt ein Tool erstellt werden, welches die vom Benutzer als relevant betrachteten Dokumente aus der Dateiablage als Grundlage für das Model der Klassifikation nutzt.

Resultat: Das Endprodukt dieses Projektes ist ein Tool, welches die vom Benutzer gewählten Dokumente eines Verzeichnisses verwendet, um das Model der Klassifizierung zu generieren. Das generierte Model kann schliesslich zur Klassifikation verwendet werden.

(Projektarbeit, Juli 2013)

2012

Lokalisierungstechnologien - Case Study

Diplomand: Silvan Weber

Referent:Beat Stettler

Korreferent: Rolf Hofstetter

Auftraggeber: INS, HSR Rapperswil

 

Mit Lokalisierungstechnologien ist es möglich, beliebige Objekte wie beispielsweise Personen, Pakete, Geräte oder Fahrzeuge jederzeit aufzufinden. Dies funktioniert dank der Ausnutzung von Eigenschaften von Hochfrequenzsignalen.
Die Recherchen und entsprechende Aufbereitung beinhalten Theorie zur Lokalisierung im Allgemeinen und zu den verschiedenen verwendeten und üblichen Lokalisierungstechnologien. Zudem wurden auch neue Ideen zur Lokalisierung eingebracht.
Es existieren bereits konkrete Produkte auf dem Markt, die eine oder mehrere dieser Technologien gleichzeitig und komplementär verwenden können. Beispiele dafür sind Ekahau RTLS, Tracker GTS und Cisco Prime NCS. Mit diesen und weiteren Produkten wurden aussagekräftige Messungen und Tests durchgeführt und dokumentiert.
Mittels der Ergebnisse von eigenen exklusiven Umfragen konnten Kundenbedürfnisse eruiert und daraus Anforderungen und Use Cases definiert werden.
Als Ergebnis wurde ein Logistiksystem geschaffen, das eine permanente Lokalisierung in der gesamten Lieferkette ermöglicht. Die Positionen von Artikeln werden periodisch sowie durch aktives Updaten abgefragt.

(Masterarbeit, September 2012)

Fiber-to-the-home on passive optical networks

Diplomand: Silvan Weber

Referent: Rolf Hofstetter

Korreferent: Martin Studer

Auftraggeber: IKT, HTW Chur

 

Im Rahmen dieser Projektarbeit wird die Verwendung von passiven optischen Netzwerken (PON) für den Glasfaseranschluss im Eigenheim (FTTH) behandelt. Es werden Grundlagen zu Glasfasertechnik im Allgemeinen sowie zu aktiven und passiven optischen Netzen erläutert. Die verschiedenen FTTx-Architekturen werden ebenfalls ausführlich dargelegt.
Der Kern dieser Arbeit ist eine Literaturrecherche über die nationale und internationale Situation von FTTH über PON mit dem Fokus auf dem angrenzenden Ausland. Die Untersuchungen haben ergeben, dass es in Europa zurzeit über 260 registrierte FTTH-Projekte gibt. Hierfür ist auch eine Auswahl von Projekten inklusive den wichtigsten Eigenschaften auf Basis des Glasfaser-Atlas von InnoVeritas aufgelistet. Insgesamt wurden über 50 Netze untersucht.
Die Hersteller der benötigten Produkte sind meistens Alcatel-Lucent oder Huawei. Die Bandbreiten für den Endkunden betragen in den meisten Fällen 100Mbit/s im Download und 10Mbit/s im Upload.

(Projektarbeit, März 2012)

2011

Webbasierte Visualisierung eines föderierten Configuration Management Systems

Diplomand: Flavio Bolfing

Referent: Martin Studer

Korreferent:Raymond Marfurt

Auftraggeber: Bank Julius Bär AG

 

In der Best Practice Sammlung von ITIL wird in der Version 3 mit dem Configuration Management System (CMS) ein neuer Begriff eingeführt. Ein CMS ist ein Satz an Hilfsmitteln und Datenbanken, in welchen Informationen für die Erbringung eines IT Service zusammenkommen. ITIL hat dabei erkannt, dass man erst bei der Zusammenführung von Informationen wie Störungen, Probleme, Changes, etc. in der Lage ist, den reibungslosen Betrieb eines Services zu garantieren. Da solche Daten oft in autonomen Datenbanken gespeichert sind, muss eine Föderation der Daten erfolgen. Aufgrund der grossen Datenmenge kann dies schnell einmal zu Unübersichtlichkeit führen. Damit man trotzdem effizient zu den gewünschten Daten kommt, ist die Informationsvisualisierung ein geeignetes Mittel dafür. Die Entwicklung einer solchen webbasierten Visualisierung eines föderierten CMS bildet denn auch den Kern dieser Arbeit.