Distributed Cognitive Computing

Komposition verteilter Online-Dienste für die Entscheidungsunterstützung unter Nutzung von Machine Learning und Cognitive Computing

Technologien zur Speicherung und Nutzung immenser Daten (Datenbanken, Replikationsmechanismen, Blockchain, …), Cloud-Technologien (Amazon AWS, …), im Internet verfügbare Machine-Learning-Dienste (Na­tu­ral Language Processing, Deep Learning, Random Forrest, Bagging, Boosting, …) und Basistechnologien für die Entwicklung verteilter und mobiler (Micro-)Services bieten heute eine technische Basis für neue Anwen­dungs­felder und für disruptive Geschäftsmodelle. In der Komposition dieser Technologien gibt es viele Chancen, aber auch noch viele ungelöste Fragen.

Die Forschungsgruppe Distributed Cognitive Computing befasst sich in diesem komplexen Umfeld in Koope­ration mit ihren Forschungs­partnern ganzheitlich mit der Konzeption und Realisierung intelligenter Lösungen vorwiegend für die Entscheidungs­unter­stützung in verschiedensten Anwendungsszenarien. Forschungs­fragen in diesem Themenfeld befassen sich mit der Komposition neuer Dienste im Internet unter Einbeziehung von Methoden aus der künstlichen Intelligenz (Machine Learning, Cognitive Computing). Wir entwickeln anwendungs­orien­tierte Algorithmen für die intelligente Sammlung von Daten aus dem Internet, z. B. aus Social-Media-Kanälen und für die Analyse dieser Informationen mit Machine-Learning-Modellen. Die Ergebnisse unserer Analyse stellen wir über Online-Dienste und in Online-Plattformen bereit. Auch sicherheits­relevante, recht­liche und daten­schutz­rechtliche Fragestellungen müssen in diesem Kontext geklärt werden. Leistungs­fähigkeit, Ska­lier­barkeit und Verfügbarkeit intelligenter, selbstlernender und auch manipulationsfreier Computer­systeme sind genauso essentiell wie eine benutzerzentrierte Soft­ware­entwicklung, um die Lösungen für Nutzer adäquat bereitzustellen. Dabei ist die Anzahl an möglichen Anwen­dungs­szenarien nahezu unerschöpflich. Aktuell befassen wir uns mit Szenarien der Entscheidungs­unter­stützung im Online-Handel (Recommendation), mit intelligenter Unterstützung für das Online-Marketing (Social-Media-Analyse), mit dem Match­making im Web und im Software Engineering, mit der eindeutigen Identifikation von Musikwerken im Internet und mit der Unterstützung der Ideensuche für Produkt­innova­tionen im Internet. Aber auch neue Architekturmodelle für derartige Systeme sind im Fokus unserer Betrach­tung. Eine kurze Beschreibung einiger laufender und abgeschlossener Forschungsprojekte soll unsere Forschungsarbeit verdeutlichen.

Schlüsselwörter Distributed Computing, Machine Learning, Data Mining, Data Analytics, Big Data, Internet Services, Cognitive Computing, Social Media, E-Commerce, Random Forrest, Bagging, Boosting, XGBoost, Neuronal Networks, Density-Based Distributed Clustering, Classification, Natural Language Processing, Text Mining, Entity Recognition, Relationship Extraction, Tagging, Sentiment Analysis, Ontology, Similarity Metrics, Application Architecture, Microservice, Internet of Things (IoT), Application Programming Interface (API), Blockchain, P2P, Consensus Protocol, Hyperledger, Watson, MapReduce, Apache Hadoop, Apache Sparc.

Projektleitung

  • Prof. Dr. Peter Mandl

Projektmitarbeiter

  • Max Auch, M.Sc.
  • Dr. Nikolai Bauer (LBA)
  • Johannes Forster, M.Sc.
  • Martin Häusl, M.Sc.
  • Dr. Daniel Kailer (LBA)
  • Max-Emanuel Keller, M.Sc.
  • Dr. Georg Lackermair (LBA)
  • Wilhelm Laschinger B.Sc.

Wir arbeiten aktuell an folgenden Themen:

Success Prediction und Success Rating im Multichannel-Marketing

Viele Unternehmen investieren stark in ihren Social Media Auftritt. Die tatsächlichen Auswirkungen einer Kampagne lassen sich dabei jedoch in der Regel nur schwer ermitteln. Konventionelle Methoden, wie z. B. der Return on Investment (ROI), sind in diesem Bereich kaum anwendbar. Den Autoren von Social Media Beiträgen fehlt dementsprechend die Möglichkeit zur Bewertung von Erfolg und Misserfolg der eigenen Beiträge.

Ziel des Projektes ist die Konzeption eines Werkzeugs, das in der Lage ist, einen künftigen Social-Media Beitrag (z. B. für Twitter oder Facebook) a-priori zu bewerten. Es gibt Empfehlungen darüber, an welcher Stelle Anpassungen vorzunehmen sind, die potentiell zu

In der Umsetzung kommt ein mehrstufiges Konzept zum Einsatz. Auf der ersten Ebene werden Daten aus verschiedenen sozialen Netzwerken gesammelt. Der Umfang der Daten erlaubt dabei den Einsatz von Technologien aus dem Umfeld von Big Data. Die gesammelten Daten werden auf der zweiten Stufe um zusätzliche Informationen angereichert. Dabei kommen verschiedene Ansätze aus dem Bereich von Machine Learning zum Einsatz, zu denen Sentiment Analyse, Topic Detection, Object Recognition und Klassifikation gehören. Für die Klassifikation werden neuronale Netze, Support Vector Machine (SVM), logistische Regression und Entscheidungsbäume (Random Forrest, Bagging, Boosting, XGBoost) erprobt. Auf der dritten Ebene werden die angereicherten Daten genutzt, um ein übergreifendes Modell zu bilden, das es erlauben soll den Erfolg neuer Beiträge zu prognostizieren. Hierbei kommen ebenso Machine-Learning-Algorithmen zum Einsatz. Das daraus resultierende übergreifende Modell wird dem Benutzer über ein Werkzeug zur Verfügung gestellt, mit dem neue Beiträge erstellt und mit Hilfe von Vorschlägen optimiert werden können.

Aktuell wird der Erfolg eines Social-Media-Beitrags also vor dem Publizieren auf Basis eines trainierten Modells (supervised) vorhergesagt und kann auch ent­sprechend angepasst werden. Nach seinem Lebenszyklus wird der tatsächliche Erfolg ausgewertet.

Unser entwickeltes Framework stützt sich aktuell auf Daten, die Beiträge (Posts) und die damit verbundenen Inter­aktio­nen der Nutzer beinhalten. Die Daten werden über die APIs (wie die Facebook Graph API) gesammelt und in einer Datenbank gespeichert, bevor sie mit zusätzlichen Informationen (Schlüsselwörter, Thema des Beitragstextes) angereichert werden. Um Beiträge als erfolgreich und erfolglos zu klassifizieren, hat eine Gruppe von Experten mehrere Tausend Beiträge nach Erfolg klassifiziert, um ein Trainingsset zu erstellen. Basierend auf den aggregierten Daten und dem Trainingsset wurde jeweils ein binärer Klassifikator entwickelt, um den Erfolg eines Beitrags vor und nach der Veröffentlichung zu bewerten.

Bisher wurden im Projekt Beiträge in deutscher Sprache aus den Branchen Automotive, Lebensmittel­einzel­handel und Informations­technologie berücksichtigt. In Zukunft sollen auch weitere Branchen analysiert werden und neben den bisherigen Social-Media-Kanälen weitere soziale Netzwerke (LinkedIn, Instagram, …) betrachtet werden. Dazu ist auch ein neuartiger Crawler  zu entwickeln, der eine intelligente Daten­samm­lung ermöglicht. Hier streben wir auch einen generischen Mechanismus an, der Daten möglichst Ressourcen-schonend aus den Social-Media-Kanälen ausliest. Das Success Rating Model soll in Zukunft für die automa­tisierte (unsupervised) Optimierung des a-posteriori Modells verwendet werden, um aufwändige manuelle Annotationen zu vermeiden.

Data Mining zur Energieeffizienz-Bewertung in großen Gebäuden

Im Bereich von Gebäudemanagement und -monitoring generieren Sensoren in sogenannten intelli­genten Gebäuden ständig Daten und beeinflussen dadurch auch das Verhalten der anderen, mit­einan­der vernetzten Geräte. So werden z. B. bei starkem Wind die Außenrollos automatisch hoch­gefahren, das Licht in den Gängen eines Gebäudes wird nur dann eingeschaltet, wenn sich dort gerade jemand befindet, die Heizung wird automatisch auf die persönliche Betriebstemperatur eingeschaltet, wenn man unterwegs ins Büro oder nach Haus ist, etc.

Gemeinsam mit unseren Gebäudetechnik- und Energie-Spezialisten erforschen wir Data Mining Ansätze, um in all diesen Gebäude- und Energiedaten das darin versteckte Wissen zu finden und somit einen Beitrag zur Steigerung der Energieeffizienz in Gebäuden zu leisten. Wir schlagen in dieser Arbeit ein modellgestütztes Konzept für Energieeffizienz in Gebäuden vor, um aus bestehenden Daten das gewünschte Wissen zu holen. Es sind drei Ebenen zu realisieren: Auf Ebene 1 werden Rohdaten von Gebäuden gesammelt und gespeichert. Durch Strukturierung der Daten auf Ebene 2, werden die daraus entstandenen Informationen in Datenbankmodellen abgebildet und verwaltet. Durch den Einsatz von effizienten Data Mining und Big Data Methoden auf Ebene 3, wird das in den Daten enthalten Wissen generiert.

Kognitiver Systeme als Entscheidungsunterstützung in textbasierten Wissenssystemen

Der Ansatz, kognitive Systeme für die Verarbeitung von unstrukturierten Daten zu nutzen, auch als „Cognitive Computing“ bezeichnet, ist noch relativ jung und findet vor allem seit den Entwicklungen rund um IBM Watson eine größere Beachtung. Derartige Systeme können auch als eine Zusammenführung von Konzepten aus den Disziplinen der künstlichen Intelligenz, Neuro­wissenschaften, von Ansätzen aus dem Machine Learning, Predictive Analytics und Natural Language Processing verstanden werden. Abstrakter formuliert nutzen kogni­tive Systeme drei wesentlichen Bestandteile: Unstrukturierte Daten, maschinelles Lernen und Hypothe­sen­generierung.

Der wesentliche Unterschied von kognitiven zu klassischen Informationssystemen besteht also in der Verarbeitung von unstrukturierten Daten. Dafür werden Methoden und Technologien aus den Bereichen Natural Language Processing, Image Recognition, Voice Recognition aber auch Text Mining eingesetzt. Die für Maschinen nun effizienter nutzbar gemachten Daten werden anschließend für das Training von überwachten (supervised) oder unüberwachten (unsupervised) Machine Learning Modellen verwendet. Dies beinhaltet klassi­sche Daten-bezogene Ansätze sowie individuelle extrinsische Ansätze im praktischen Einsatz mit End­benutzern des kognitiven Systems. Die trainierten Modelle werden abschließend als Basis für die Generierung von Hypothesen, also den eigentlichen Handlungsvorschlägen verwendet. Hierzu werden in der Regel indivi­duelle, domänenspezifische Statistiken verwendet, welche das Fachwissen von Experten widerspiegeln.

In klassischen Wissensmanagement-Systemen sind Methoden für das Natural Language Processing z. B. für Enti­ty Recognition, Relationship Extraction und Tagging fest verdrahtet. Innovative Anbieter von kognitiven An­sätzen wie Microsoft, Google und IBM sowie auf NLP spezialisierte kleinere Technologiefirmen bieten ihre vortrainierten und regelmäßig aktualisierten sprachverarbeitenden Komponenten oder Services über offene Serviceschnittstellen in Form von APIs an. Die feste Verdrahtung der Funktionalität soll in unserem Forschungsprojekt aufgelöst werden. Flexible Architektureinbindungen für die sich stark in Entwicklung befin­denden APIs von innovativen Herstellern sind erforderlich. Services sollten also zum Beispiel durch Nutzung des SOA-Gedankens in einer Architektur für Wissenssysteme integrierbar sein.

Eine weitere bereits bekannte Anforderung an Architekturen für kognitive Wissenssysteme ist die Möglichkeit, von Experten adaptiv zu lernen, anstatt regelbasiertes Pattern Matching für die Beantwortung von Suchen und Anfragen zu nutzen. Hierfür müssen auch auf NLP spezialisierbare Machine-Learning-Komponenten verwendet werden können, um beispielsweise Klassifizierungen von Dokumenten, Sätzen und Entitäten zu ermöglichen oder ein Ranking der plausibelsten Hypothesen zu gewährleisten. Unser Forschungsprojekt befasst sich mit der Erweiterung klassischer wissens­basierter Systemarchitekturen wie UIMA, um diese mit weiterer Intelligenz durch die Nutzung kognitiver Elemente zu ergänzen (Forster & Entrup 2017). Im Internet verfügbare Bausteine sollen über generische Schnittstellen eingebunden werden können, so dass für beliebige Problemstellungen auch eine Komposition verschiedener Machine-Learning-Bausteine und ein Vergleich verschiedener Komposi­tionen möglich wird.

Ontologie-basierte Idea Detection in Social Media Netzwerken

Um am Markt bestehen zu können, müssen Unternehmen ständig verbesserte und neue Produkte entwickeln. Diese Produkte sind so konzipiert, dass sie die Bedürfnisse ihrer Kunden bestmöglich erfüllen. Die Entwicklung neuer Produkte wird auch als Innovation bezeichnet und in erster Linie von der firmeneigenen Forschungs- und Entwicklungsabteilung vorangetrieben. Seit einigen Jahren gibt es jedoch einen neuen Ansatz, der externes Wis­sen in den Innovationsprozess einbezieht. Dieser Ansatz wird als Open Innovation bezeichnet und identifiziert Kunden­wissen als wichtigste Quelle im Innovations­prozess.

Unser Forschungsprojekt (Häusl et al. 2018) befasst sich mit Konzepten zur Nutzung von Social Media Posts als externe Quelle für die Unterstützung des Open-Innovation-Ansatzes in seiner Anfangsphase, der Ideations­phase (Ideensammlung, Ideengenerierung), vor. Dazu werden die Social Media Posts mit Hilfe einer Ontologie semantisch strukturiert und die Autoren anhand graphentheoretischer Metriken wie der Dichte, der Aktivität und der strategischen Position unter Einbeziehung spezifischer Reputations-Metriken der Social-Media-Kanäle bewertet.

Zur Strukturierung und Auswertung relevanter Social Media Beiträge werden Erkennt­nisse des Natural Language Processing, z. B. Named Entity Recognition, spezifische Wörterbücher, Triple Tagger und Part-of-Speech-Tagger eingesetzt. Die Verwendung unserer entwickelten Ontologie  sowie die verschiedenen Metriken zur Strukturierung von Social Media Beiträgen ermöglichen es den Nutzern, diese Beiträge semantisch nach neuen Produktideen zu durchsuchen und so einen besseren Einblick in die externen Quellen wie z. B. Kundenbedürfnisse zu gewinnen. Über ein spezielles User Interface eines Idea-Extraction Fontend-Tools stellen wir den neuen Dienst für die Nutzung und für Experimente bereit.

Matching von Legacy Softwareprojekten mit Machine Learning

Im Rahmen der Weiterentwicklung von Software werden typischerweise, ähnlich wie bei der Entwicklung neuer Software, unterschiedliche Phasen für das Erreichen eines gewünschten Ergebnis­ses durchlaufen. Neben einer Analyse der Anforderungen müssen dabei auch Design-Entscheidungen getroffen werden, welche häufig auch als Architecture Design Decision (ADD) bezeichnet werden. Die Umsetzung der Architektur bei späteren Änderungen zum Teil kosten­intensiv, weil sie sich oft auf zahlreiche Stellen des Systems auswirken.

Das Absichern von Entscheidungen in der Softwareentwicklung kann durch die Verwendung ent­sprechen­der Werkzeuge unterstützt werden. Diese reichen von einfachen Dokumentationshilfen bis hin zu automatisierten Empfehlungssystemen, die beispielsweise Entscheidungsbäume oder Regel­wer­ke nutzen, um Entscheidungs­varian­ten zu veranschaulichen. Der öffentliche Online-Service Git­hub bietet derzeit ca. 80 Millionen Reposito­ries von 27 Millionen Nutzern. Diese frei verfügbaren Informationen können für die Wartung und Weiterent­wicklung von Legacy Code genutzt werden, um Empfehlungen autonom zu generieren. Dafür kann auf ähnliche Projekte, deren Entwicklungsstand und die dazugehörenden Architektur­entschei­dun­gen zurückgegriffen werden.

Das Ziel unserer Forschungsarbeit besteht darin, einen Ansatz zu entwickeln, durch den ähnliche Projekte automatisiert erkannt und Empfehlungen für die Weiterentwicklung der Software abgeleitet werden können. Eine automatisierte Erkennung soll hierbei auf der Analyse von implementierten Bibliotheken und einer Software-Kategorisierung aus Dokumentationen basieren. Für die Erkennung ähnlicher Projekte ist zudem ein Maschine-Learning-Ansatz angedacht.

Vorhersage von Aktualisierungen in sozialen Netzwerken

Soziale Netzwerke (Online Social Networks) wie Facebook, Twitter und YouTube erfreuen sich nicht nur bei Endbenutzern, sondern auch bei Unternehmen seit Jahren großer Beliebtheit. Unternehmen nutzen diese Netzwerke insbesondere für Marketingzwecke, womit herkömmliche Marketing-Instru­men­te zunehmend in den Hintergrund rücken. Adäquate Beiträge in sozialen Netzwerken sollen die Sichtbarkeit von Unternehmen erhöhen und verkaufsfördernd wirken. Man möchte gerne wissen, welche Beiträge für ein Unternehmen relevant sind und ob die eigenen Beiträge den erwarteten Erfolg erzielen. Nicht nur Unternehmen, sondern auch politische Parteien, Universitäten, Forschungs­einrich­tungen und viele weitere Organisationen nutzen soziale Netzwerke für ihre Belange.

Um den Erfolg eines Beitrags in einem oder mehreren sozialen Netzwerken messen zu können, werden die zugehörigen Interaktionen der Teilnehmer meist über dedizierte Werkzeuge ausgelesen und ausgewertet, wobei die Einschränkungen vorhandener technischer Schnittstellen der sozialen Netze zu beachten sind. Für eine erfolgversprechende Auswertung von Beiträgen und der zugehörigen Interaktionen sind Aspekte wie Umfang und Aktualität von besonderer Bedeutung. Ein Auslesen aus den sozialen Netzwerken kann mit heute verfügbaren Möglichkeiten nur über Polling-Verfahren durchgeführt werden. Zum Berechnen der richtigen Aktualisierungsintervalle nutzt man häufig statistische Modelle.

Das Ziel der geplanten Arbeit ist eine möglichst exakte Vorhersage, wann Aktualisierungen von Beiträ­gen und Interaktionen für vorgegebene Themen oder Seiten in sozialen Netzwerken auftreten, um diese zeitnah abzugreifen und zu verarbeiten. Die möglichst genaue Kenntnis der Änderungsraten dient einer Optimierung des Ressourceneinsatzes und einer Verarbeitung beinahe in Echtzeit. Viele Anwendungen könnten davon profitieren. Um das Ziel zu erreichen, sollen Konzepte aus dem Web Crawling und Web Caching auf die eigene Problemstellung übertragen werden. Neue Algorithmen zur Vorhersage von Änderungsraten sollen entwickelt und erprobt sowie den aktuellen Lösungen gegenübergestellt werden.

 

Folgende Projekte sind in der Vorbereitung:

Blockchain-Technologie und Machine Learning für Music Licensing

Entwicklung einer Blockchain-Umgebung zur dezentralen Rechteverwaltung von Musikwerken mit zugrundeliegender Audioanalyse zur automatisierten Neuheitserkennung von Musikwerken. Der innovative Kern der gesamten Entwicklung liegt in der Kombination einer komplett neuen Anwendung der Blockchaintechnologie mit hochpräzisen Matching-Algorithmen welche die vollautomatisierte und eindeutige Neuheitsprüfung von Musikwerken zu deren Rechteverwaltung ermöglichen. Eine Neuheit bildet ebenfalls der durch eine intelligente Schnittstelle einfache Zugriff auf die Blockchain. Durch die Entwicklung einer intelligenten API können Künstler direkt neue Musikwerke in der Blockchain hinterlegen und damit die Rechte klar zuordnen. Vorgeschaltet liegt die automatisierte Neuheitsprüfung des Musikwerks, sodass Duplikate sofort, eindeutig und öffentlich als solche sichtbar werden. Der Unterschied zu bisherigen Musik Identifikationstools liegt in der künstlichen Intelligenz des entwickelten Systems. Durch die Nutzung von Machine Learning und die Entwicklung von Ähnlichkeitsmetriken können Musikwerke auch nach starker Veränderung eindeutig einem in der Blockchain hinterlegten Werk zugeordnet werden oder gegebenenfalls als neues Werk in die Blockchain aufgenommen werden.

Maschinelles Matching von Wissen bzgl. Unternehmenskompetenzen

Im Rahmen des Projekts soll ein entscheidungsunterstützendes System zum intelligenten Matching von Unternehmen und wissenschaftlichen Kooperationsprojekten im Rahmen effizienten Technologietransfers entwickelt werden. Bislang ist der Technologietransfer ein stark manueller Prozess, welcher auf persönlichen Kontakten weniger Spezialisten beruht. Den größten Teil ihrer Arbeit verbringen diese allerdings mit Firmenrecherchen im Internet, dieser Teil soll durch die Entwicklung vollautomatisiert übernommen werden. Durch Web-Crawler und Natural Language Processing schafft es die entwickelte Softwarelösung Webinhalte basierend auf eingegebenen Vorgaben vollautomatisiert zu analysieren und zu extrahieren. Durch eine Künstliche Intelligenz werden die zuvor ermittelten Inhalte klassifiziert und beurteilt. Ziel der Entwicklung ist es auf Grund weniger zuvor eingegebener Suchkriterien eine Liste mit fachlich geeigneten Firmen, welche bereits auf Förderfähigkeit geprüft sind, den Experten des Technologietransfers zur Verfügung zu stellen. Damit entsteht eine Zeitersparnis von bis zu 40%, gleichzeitig wird es den Mitarbeitern ermöglicht sich voll auf die kreative Gestaltung des Anforde­rungs­profils und den persönlichen Kontakt mit den Kunden zu konzentrieren.

Blockchain für Vertragsnetzwerke

Ziel des Projekts ist die Verwaltung von voneinander abhängigen Vertragswerken unterschiedlicher Unter­nehmen und Freischaffenden in Vertragsnetzen in einer Blockchain unter Berücksichtigung datenschutz­recht­licher Anforderungen. Der Blockchain-Ansatz soll es erlauben, Verträge uns Vereinbarungen irreversibel und manipulationssicher und für alle Akteure zugänglich abzulegen und schnell wiederzufinden.

Matchmaking zur automatischen Suche von Forschungspartnern

In diesem Forschungsprojekt soll ein neuartiges Matchmaking Tools zur Auswahl von potentiellen, themen­orien­tierten Partnern in Forschung und Industrie entwickelt werden, um den Technologie­trans­fer zwischen Industrie und Forschung zu fördern. Die Basis des Matchmaking bilden Ontologien, die eine Klassifi­zie­rung von Unternehmen unterstützen und die automatisierte Suche über einen Crawler ermöglichen. Durch die Auswertung dieser Daten werden Suchergebnisse gene­riert, die eine Zusammenstellung von Forschungs­gruppen erleichtern soll.

KI-basierte Automatisierung des Mahnwesens

Ziel dieses Forschungsvorhabens ist die Entwicklung einer intelligenten, digitalen und automa­tisierten Debitorenbuchhaltung, die eine Debitorenrisikobewertung von Unternehmen er­mög­licht, für die bisher keine Informationen zum Zahlungsverhalten von Kunden vorhanden sind. Durch die Auswertung des Zahlungsverhalten mittels innovativer Machine-Learning-Ansätze soll es möglich sein, den Zahlungszeitpunkt und die Zahlungswahr­schein­lichkeit mit hoher Präzision für eine Entscheidungsunterstützung für das Liquiditäts­management von Unternehmen vorherzusagen.

Veröffentlichungsliste der Forschungsgruppe (Auszug)

Häusl M., Forster J., Auch M., Karrasch M and Mandl P. (2018)‚ ‘An Evaluation Concept for NER and Keyword APIs in Social Media Analysis’, Second International Workshop on Entrepreneurship in Electronic and Mobile Business (IWEMP 2018), September 2018, Wiesbaden.(paper accepted).

Keller M., Stoffelen B., Kailer D., Mandl P. and Althaller J. (2018) ‘Predicting the Success of Posts for Brand Pages on Facebook’, 17th International Conference on WWW/Internet (ICWI 2018) Budapest, Hungary, October 2018. (paper accepted).

Lindner T., Mandl P., Bauer N. and Grimm M. (2018) Erkennung von Duplikaten in Big Data am Fallbeispiel der digitalen Musiknutzung. HMD Praxis der Wirtschaftsinformatik (2018) 55: 581. DOI: https://10.1365/s40702-017‑0387-1.

Forster, J., Entrup, B. (2017) ‘A Cognitive Computing Approach for Classification of Complaints in the Insurance Industry’, 2017 International Conference on Artificial Intelligence Applications and Technologies (AIAAT 2017).

Keller M., Mandl P., Bauer N., Kailer D. and Grimm M. (2017) ‘Verarbeitung komplexer XML-basierter Massendaten in BigData-Anwendungen‘. AKWI, [S.l.], n. 6, p. 20–27, Dez. 2017. ISSN 2296–4592. Verfügbar unter: <https://ojs-hslu.ch/ojs302/index.php/AKWI/article/view/93>.

Januzaj E., Mandl P. and Wolff C. (2017) ‘Increasing Energy Efficiency in Buildings by the use of Big Data Techniques and Data Mining’. In: Proc. Applied Computer Science Conference (IASH-ACSC). Prishtina, Kosova, 2017. ISBN:978‑9951-518–13-0, pp. 66.

Mandl P., Döschl A. (2017) ‘Klassisches Multi-threading versus MapReduce zur Parallelisierung rechenintensiver Tasks in der Amazon Cloud‘. HMD Praxis der Wirtschaftsinformatik 2017-09-14. DOI: https://doi.org/10.1365/s40702-017‑0360-z.

Januzaj E., Januzaj V., Caka A. and Mandl P. (2017) ‘Albanische Forschungen in Zeiten von Big Data — eine Betrachtung aus Sicht der Informatik“, (Originaltitel: „Hulumtimet albanologjike në kohën e Big Data — një këndvështrim nga informatika“). In: International Conference on Albanian Studies in German Speaking Countries, Akademie der Wissenschaften und Künste, Prishtina, Kosova, 2017.

Regel R., Januzaj E. and Jensch W., Mandl P. (2016) ‘Rapid Building Assessment Using Statistical Techniques and Powerful IT-infrastructure’. In: Proc. of the International Conference Smart Energy Regions, 2016, Cardiff, UK, February 2016.

Mandl P., Bauer N., Döschl A., Grimm M., Wickertsheim L. (2016) ‚Die Verwertung von Online-Musiknutzungen–Herausforderungen für die IT‘. HMD Praxis der Wirtschaftsinformatik, 53(1), pp. 126–138.

Januzaj E. and Januzaj V. (2016) ‘Computer-based knowledge networks as a perspective for modern research on history, language and cultural sciences — an example from Albanian ancient history‘. In: Proc. 11th Annual Meeting of the Institute Alb-Shkenca, Tirana, Albania, 2016. ISBN:978‑9928-110–71-8, pp. 52.

Forster J., Häusl M. and Mandl P. (2015) ‘Ein hybrider Empfehlungsdienst für Handelspartnerschaften im E-Commerce‘. HMD Praxis der Wirtschaftsinformatik, 52(2), pp.227–239.

Ali N., Mandl P., Baumgärtner R (2015) ‘Nutzung von Apache Mahout für eine leichtgewichtige Empfehlungsgenerierung auf der Basis von Produktbewertungen’. HMD Praxis der Wirtschaftsinformatik, 52(2), pp.215–226.

Januzaj E. (2014) ’Towards the Integration of the Knowledge from Biomedical Databases’. In Proc. 5th International Conference on Information Technology in Bio- and Medical Informatics (ITBAM), 2014, Munich, Germany, September 2014. LNCS 8649 2014, pp. 83–86.

Kailer D., Mandl P. and Schill A. (2014) ‘Supporting Customers’ Decision Making with Rated Tags’. In Proceedings of the Sixteenth International Conference on Electronic Commerce. ICEC ’14. New York, NY, USA: ACM, pp. 33:33–33:40.

Kailer D. (2014) Rated Tags as a Service: ‘A Cloud-based Social Commerce Service’, ICIW 2014: The Ninth International Conference on Internet and Web Applications and Services. IARIA, 2014, pp 37–40.

Kailer D. and Mandl, P. (2014) ‘Combining Hashtags and Ratings for Opinion Expression in Customer Reviews’. In 13th International Conference WWW/Internet. Porto, Portugal: IADIS.

Kailer D., Mandl P. and Schill, A. (2013) ‘Rated Tags: Adding Rating Capability to Collaborative Tagging’, in 2013 Third International Conference on Cloud and Green Computing (CGC). 2013 Third International Conference on Cloud and Green Computing (CGC), IEEE, pp. 249–255. doi: 10.1109/CGC.2013.46.

Löwe R., Mandl P. and Weber M. (2013) ‘Supporting generic context-aware applications for mobile devices’, in. 2013 IEEE International Conference on Pervasive Computing and Communications Workshops (PERCOM Workshops), pp. 97–102. doi: 10.1109/PerComW.2013.6529464.

Januzaj E. (2013) ’Extending Diseasome by Integrating the Knowledge from Distributed Databases’. In: 4th International Workshop on Biological Knowledge Discovery and Data Mining (BIOKDD) @ DEXA, Prague, Czech Republic, August 2013. IEEE 2013, pp. 105–109.

Kailer D., Mandl P. and Schill A. (2013) ‘An Empirical Study on the Usage of Social Media in German B2C-Online Stores’, International journal of advanced Information technology, 3(5), pp. 1–14.

Lackermair G., Kailer D. and Kanmaz K. (2013) ‘Importance of Online Product Reviews from a Customer’s Perspective’, Advances in Economics and Business, 1(1), pp. 1–5.

Kailer, D. and Mandl, P. D. P. (2012) ‘Hoch verfügbare und konsistente Datenhaltung in der Cloud’, HMD Praxis der Wirtschaftsinformatik, 49(6), pp. 69–77. doi: 10.1007/BF03340759.

Löwe R., Mandl P. and Weber M. (2012) ‘Context Directory: A context-aware service for mobile context-aware computing applications by the example of Google Android’, in Pervasive Computing and Communications Workshops (PERCOM Workshops), 2012 IEEE International Conference on. IEEE, pp. 76–81. doi: 10.1109/PerComW.2012.6197616.

Mandl P. (2012) ‘Ist SOA obsolet? — Eine kritische Betrachtung’, Praxis der Informationsverarbeitung und Kommunikation, 35(2), pp. 119–123. doi: 10.1515/pik-2012–0020.

Kailer D. and Mandl P. (2012) ‘Cloud-basierte Messaging-Dienste’, Praxis der Informationsverarbeitung und Kommunikation, 35(3), pp. 187–193. doi: 10.1515/pik-2012–0029.

Weiss J., Mandl P. and Schill A. (2011) ‘Functional testing of Complex Event Processing applications’, in 2011 IEEE International Conference on Intelligent Computer Communication and Processing (ICCP). pp. 407–413. doi: 10.1109/ICCP.2011.6047906.

Lackermair G. (2011) ‘Hybrid cloud architectures for the online commerce’, Procedia Computer Science. (World Conference on Information Technology), 3, pp. 550–555. doi: 10.1016/j.procs.2010.12.091.

Kailer D. and Mandl, P. (2011) ‘Einsatz von Cloud Computing im E-Commerce’, Praxis der Informationsverarbeitung und Kommunikation, 34(1), pp. 37–43. doi: 10.1515/piko.2011.006.

Lackermair G., Strahringer S. and Mandl P. (2010) ‘Dynamically Scalable Architectures for E-Commerce. A Strategy for Partial Integration of Cloud Resources in an E-Commerce System’, in Matthias Schumann and Lutz M. Kolbe and Michael H. Breitner and Arne Frerichs (Hrsg.) Multikonferenz Wirtschaftsinformatik 2010. Universitätsverlag Göttingen 2010. Göttingen: Universitätsverlag Göttingen, pp. 1289–1301.

Alvarado L., Schmidt K. and Mandl P. (2009) ‘Grundlagen Message-orientierter Middleware’, PIK-Praxis der Informationsverarbeitung und Kommunikation, 32(3), pp. 151–155.

Alvarado L., Mandl P. and Schmidt K. (2009) ‘Zuverlässige Kommunikation mit Java Messaging Service’. Praxis der Informationsverarbeitung und Kommunikation, 32(3), pp. 156–160. doi: 10.1515/piko.2009.0029.

Januzaj E., Kriegel H.-P., Pfeifle M. (2004) ‘Scalable Density-Based Distributed Clustering,
8th European Conference on Principles and Practice of Knowledge Discovery in Databases (PKDD)’, Pisa, Italy, September 20–24, 2004, J.-F. Boulicaut et al.(Eds.): LNAI 3202, pp 231–244,
Springer-Verlag Berlin Heidelberg 2004

Januzaj E., Kriegel H.-P. and Pfeifle M. (2003) ‘Towards Effective and Efficient Distributed Clustering’, Proc. Int. Workshop on Clustering Large Data Sets, 3rd IEEE International Conference on Data Mining (ICDM 2003), Melbourne, Florida, USA, 2003, pp. 49–58.