Prof. Saake

Prof. Dr. rer. nat. habil. Gunter Saake

Fakultät für Informatik (FIN)
Institut für Technische und Betriebliche Informationssysteme (ITI)
Gebäude 29, Universitätsplatz 2, 39106 Magdeburg, G29-110
Sprechzeiten: nach Vereinbarung per E-Mail:
Kooperationen
  • icubic AG
  • Technische Universität Kaiserslautern
  • Fraunhofer IESE Kaiserslautern
  • FuelCon AG
  • Lehnert Regelungstechnik GmbH
  • Dornheim Medical Images GmbH
  • initOS GmbH & Co. KG
  • Science and Technology Development Agency (NSTDA)
  • Carnegie Mellon University
  • Technische Universität Braunschweig
  • Pure-systems GmbH
  • Fraunhofer Institut IFF Magdeburg
  • Bayer
  • METOP GmbH
  • Deutsches Netzwerk für Bioinformatik-Infrastruktur de.NBI
  • Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (DZHW)
  • Hochschule Harz, Wernigerode
  • Humboldt-Universität zu Berlin, Prof. Dr. Niels Pinkwart
  • IFF Fraunhofer Institut für Fabrikbetrieb und -automatisierung
  • Institut für Informations- und Kommunikationstechnik - IIKT, OvGU
  • Karlsruher Institut für Technologie (KIT)
  • Legal Horizon AG
  • Leibniz-Institut für Analytische Wissenschaften ISAS e.V.
  • MPI Magdeburg
  • Ruhr Universität Bochum
  • Technische Hochschule Chalmers
  • TU Bergakademie Freiberg - Prof. Sebastian Zug
  • TU Eindhoven
  • Universität Göteborg
  • Universität Ulm, Prof. Dr. Thomas Thüm
  • Volkswagen AG Wolfsburg
Publikationen

2024

Buchbeitrag

How easy is SAT-based analysis of a feature model?

Kuiter, Elias; Heß, Tobias; Sundermann, Chico; Krieter, Sebastian; Thüm, Thomas; Saake, Gunter

In: Proceedings of the 18th International Working Conference on Variability Modelling of Software-Intensive Systems - [Erscheinungsort nicht ermittelbar] : Association for Computing Machinery ; Kehrer, Timo . - 2024, S. 149-151 [Konferenz: 18th International Working Conference on Variability Modelling of Software-Intensive System, VaMoS'24, Bern, Switzerland, February 7 - 9, 2024]

Begutachteter Zeitschriftenartikel

Clustering graph data: the roadmap to spectral techniques

Mondal, Rahul; Ignatova, Evelina; Walke, Daniel; Broneske, David; Saake, Gunter; Heyer, Robert

In: Discover artificial intelligence - [Cham] : Springer International Publishing, Bd. 4 (2024), Heft 1, insges. 22 S.

Dissertation

Methodology for self-adaptively solving multi-objective scheduling problems

Nahhas, Abdulrahman; Turowski, Klaus; Saake, Gunter

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2024, 1 Online-Ressource (xviii, 260 Seiten, 5,63 MB) [Literaturverzeichnis: Seite 231-259][Literaturverzeichnis: Seite 231-259]

Architecting a pluggable query executor for emerging co-processors

Gurumurthy, Balasubramaninan; Saake, Gunter; Pionteck, Thilo

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2024, 1 Online-Ressource (xvii, 164 Seiten, 3,11 MB) [Literaturverzeichnis: Seite 147-164][Literaturverzeichnis: Seite 147-164]

2023

Buchbeitrag

Tseitin or not Tseitin? - the impact of CNF transformations on feature-model analyses

Kuiter, Elias; Krieter, Sebastian; Sundermann, Chico; Thüm, Thomas; Saake, Gunter

In: Software Engineering 2023 - Bonn : Köllen, S. 83-84 - (GI-Edition; Proceedings; 332)

Investigating the relation between authors’ academic age and their citations

Alchokr, Rand; Joshi, Sanket Vikas; Saake, Gunter; Leich, Thomas; Krüger, Jacob

In: Linking Theory and Practice of Digital Libraries , 1st ed. 2023. - Cham : Springer Nature Switzerland ; Alonso, Omar, S. 106-113 - ( Lecture notes in computer science; volume 14241)

ADAMANT - a query executor with plug-in interfaces for easy co-processor integration

Gurumurthy, Balasubramanian; Broneske, David; Durand, Gabriel Campero; Pionteck, Thilo; Saake, Gunter

In: 2023 IEEE 39th International Conference on Data Engineering workshops - Piscataway, NJ : IEEE, S. 1153-1166

FPGA-integrated bag of little bootstraps accelerator for approximate database query processing

Burtsev, Vitalii; Wilhelm, Martin; Drewes, Anna; Gurumurthy, Balasubramanian; Broneske, David; Pionteck, Thilo; Saake, Gunter

In: Applied Reconfigurable Computing. Architectures, Tools, and Applications , 1st ed. 2023. - Cham : Springer Nature Switzerland ; Palumbo, Francesca, S. 115-130 - ( Lecture notes in computer science; volume 14251)

A flexible and scalable reconfigurable FPGA overlay architecture for data-flow processing

Drewes, Anna; Burtsev, Vitalii; Gurumurthy, Balasubramanian; Wilhelm, Martin; Bronske, David; Saake, Gunter; Pionteck, Thilo

In: 31st IEEE International Symposium on Field-Programmable Custom Computing Machines , 2023 - Piscataway, NJ : IEEE ; Prasanna, Viktor, S. 212

variED - an editor for collaborative, real-time feature modeling

Kuiter, Elias; Krieter, Sebastian; Krüger, Jacob; Saake, Gunter; Leich, Thomas

In: Software Engineering 2023 - Bonn : Köllen, S. 85-86 - (GI-Edition; Proceedings; 332)

Intelligent data migration policies in a write-optimized copy-on-write tiered storage stack

Wünsche, Johannes; Karim, Sajad; Kuhn, Michael; Broneske, David; Saake, Gunter

In: Proceedings of the 3rd Workshop on Challenges and Opportunities of Efficient and Performant Storage Systems - New York,NY,United States : Association for Computing Machinery . - 2023, S. 17-26 [Workshop: 3rd Workshop on Challenges and Opportunities of Efficient and Performant Storage Systems, Rome, Italy, 8 May 2023]

An empirical analysis of newcomers’ contributions to software-engineering conferences

Alchokr, Rand; Krüger, Jacob; Shakeel, Yursa; Saake, Gunter; Leich, Thomas

In: Leveraging Generative Intelligence in Digital Libraries: Towards Human-Machine Collaboration , 1st ed. 2023. - Singapore : Springer Nature Singapore ; Goh, Dion H., S. 231-247 - (Lecture notes in computer science; volume 14457)

An intervention strategy for mitigating the prevalence of syntax errors during task exercise engagements

Obionwu, Chukwuka Victor; Harnisch, Christiane; Kalu, Kalu; Broneske, David; Saake, Gunter

In: 2022 International Conference on Engineering and Emerging Technologies (ICEET 2022) , 2022 - [Piscataway, NJ] : IEEE ; Usman, Rehan, insges. 6 S.

Automatic instructional feedback, and a lecture hub system - a strategy towards nurturing the acquisition of a structured engagement behavior

Obionwu, Victor; Toulouse, Vincent; Broneske, David; Saake, Gunter

In: Data Management Technologies and Applications , 1st ed. 2023. - Cham : Springer Nature Switzerland ; Cuzzocrea, Alfredo, S. 219-242 - (Communications in computer and information science; volume 1860)

What happens when two multi-query optimization paradigms combine?

Gurumurthy, Balasubramanian; Bidarkar, Vasudev Raghavendra; Broneske, David; Pionteck, Thilo; Saake, Gunter

In: Advances in Databases and Information Systems , 1st ed. 2023. - Cham : Springer Nature Switzerland ; Abelló, Alberto, S. 74-87 - ( Lecture notes in computer science; volume 13985)

Optical image recognition strategy for keyword extraction and page ranking for slide recommendation system

Obionwu, Chukwuka Victor; Abbas, S. M. Laique; Tiwari, Taruna; Broneske, David; Saake, Gunter

In: International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME 2023) - Piscataway, NJ : IEEE, insges. 6 S.

A strategy for structuring teams collaboration in university course projects

Obionwu, Chukwuka Victor; Karl, Maximilian; Broneske, David; Hawlitschek, Anja; Blockhaus, Paul; Saake, Gunter

In: Proceedings of the 20th International Conference on Smart Business Technologies - [Setúbal, Portugal] : SCITEPRESS - Science and Technology Publications, Lda. ; Hammoudi, Slimane . - 2023, S. 32-42

A strategy for retrospective evaluation of students SQL learning engagements

Obionwu, Chukwuka Victor; Kalu, Oji Kalu; Blockhaus, Paul; Broneske, David; Saake, Gunter

In: International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME 2023) - Piscataway, NJ : IEEE, insges. 7 S.

Data streams - investigating data structures for multivariate asynchronous time series prediction problems

Vox, Christopher; Broneske, David; Shaikat, Istiaque; Saake, Gunter

In: Proceedings of the 12th International Conference on Pattern Recognition Applications and Methods. Volume 1 - [Setúbal] : SCITEPRESS - Science and Technology Publications, Lda. ; Marsico, Maria . - 2023, S. 686-696

Peer-reviewing and submission dynamics around top software-engineering venues - a juniors’ perspective

Alchokr, Rand; Shakeel, Yusra; Saake, Gunter; Leich, Thomas

In: Software Engineering 2023 - Bonn : Köllen, S. 60-69 - (GI-Edition; Proceedings; 332)

Are altmetrics proxies or complements to citations for assessing Impact in computer science?

Shakeel, Yusra; Alchokr, Rand; Krüger, Jacob; Saake, Gunter; Leich, Thomas

In: 2021 ACM/IEEE Joint Conference on Digital Libraries , 2021 - Piscataway, NJ : IEEE, S. 284-286

Begutachteter Zeitschriftenartikel

Leveraging educational blogging to assess the impact of collaboration on knowledge creation

Obionwu, Victor; Broneske, David; Saake, Gunter

In: International Journal of Information and Education Technology - Singapore : IACSIT Press, Bd. 13 (2023), Heft 5, S. 785-791

Novel insights on atomic synchronization for sort-based group-by on GPUs

Gurumurthy, Bala; Broneske, David; Schäler, Martin; Pionteck, Thilo; Saake, Gunter

In: Distributed and parallel databases - New York, NY [u.a.] : Consultants Bureau . - 2023, insges. 23 S.

Decision tree learning in Neo4j on homogeneous and unconnected graph nodes from biological and clinical datasets

Mondal, Rahul; Do, Minh Dung; Ahmed, Nasim Uddin; Walke, Daniel; Micheel, Daniel; Bronske, David; Saake, Gunter; Heyer, Robert

In: BMC medical informatics and decision making - London : BioMed Central, Bd. 22 (2023), Heft S6, Artikel 347, insges. 12 S.

Out-of-the-box library support for DBMS operations on GPUs

Subramanian, Harish Kumar Harihara; Gurumurthy, Balasubramanian; Durand, Gabriel Campero; Broneske, David; Saake, Gunter

In: Distributed and parallel databases - New York, NY [u.a.] : Consultants Bureau, Bd. 41 (2023), Heft 3, S. 489-509

The importance of graph databases and graph learning for clinical applications

Walke, Daniel; Micheel, Daniel; Schallert, Kay; Muth, Thilo; Broneske, David; Saake, Gunter; Heyer, Robert

In: Database - Oxford : Oxford University Press, Bd. 2023 (2023), Artikel baad045, insges. 20 S.

Nicht begutachteter Zeitschriftenartikel

Exploiting structure - a survey and analysis of structures and hardness measures for propositional formulas

Adamy, Rick; Kuiter, Elias; Saake, Gunter

In: Qeios - [London] : Qeios Ltd. . - 2023, Artikel 7U1PFG, insges. 9 S.

2022

Buchbeitrag

Topic maps as a tool for facilitating collaborative work pedagogy in knowledge management systems

Obionwu, Victor; Broneske, David; Saake, Gunter

In: Proceedings of the 12th International Conference on Information Communication and Management - New York,NY,United States : Association for Computing Machinery . - 2022, S. 50-60 [Konferenz: 12th International Conference on Information Communication and Management, ICICM 2022, London, 13-15 July 2022]

Are altmetrics useful for assessing scientific impact? - a survey

Shakeel, Yusra; Alchokr, Rand; Krüger, Jacob; Leich, Thomas; Saake, Gunter

In: Proceedings of the 14th International Conference on Management of Digital EcoSystems / Damiani , Ernesto - New York,NY,United States : Association for Computing Machinery ; Damiani, Ernesto . - 2022, S. 144-147 [Konferenz: International Conference on Management of Digital EcoSystems, MEDES'22, Venice Italy, October 19 - 21, 2022]

Microblogs - a means for simulating informal learning beyond classrooms

Obionwu, Chukwuka Victor; Broneske, David; Saake, Gunter

In: Proceedings of the 14th International Conference on Education Technology and Computers - New York,NY,United States : Association for Computing Machinery . - 2022, S. 219-225 [Konferenz: 14th International Conference on Education Technology and Computers, Barcelona Spain, October 28 - 30, 2022]

A skill sharing platform for team collaboration and knowledge exchange

Obionwu, Victor; Nürnberger, Anderas; Saake, Gunter

In: WEBIST 2022 - [Setúbal] : SCITEPRESS - Science and Technology Publications, Lda. ; Decker, Stefan, S. 365-372 [Konferenz: 18th International Conference on Web Information Systems and Technologies, WEBIST 2022, Valletta - Malta, October 25 - 27, 2022]

Supporting systematic literature reviews using deep-learning-based language models

Alchokr, Rand; Borkar, Manoj; Thotadarya, Sharanya; Saake, Gunter

In: The 1st Intl. Workshop on Natural Language-Based Software Engineering / IEEE/ACM International Workshop on Natural Language-Based Software Engineering , 2022 - [Piscataway, NJ] : IEEE, S. 67-74 [Workshop: IEEE/ACM 1st International Workshop on Natural Language-Based Software Engineering, NLBSE, Pittsburgh, PA, USA, 08. May 2022]

Tseitin or not tseitin? - the impact of CNF transformations on feature-mModel analyses

Kuiter, Elias; Krieter, Sebastian; Sundermann, Chico; Thüm, Thomas; Saake, Gunter

In: Proceedings of the 37th IEEE/ACM International Conference on Automated Software Engineering - New York,NY,United States : Association for Computing Machinery . - 2022, Artikel 110, insges. 13 S. [konferenz: 37th IEEE/ACM International Conference on Automated Software Engineering, ASE '22,Rochester, MI, USA, October 10 - 14, 2022]

Are altmetrics useful for assessing scientific impact - a survey

Shakeel, Yusra; Alchokr, Rand; Krüger, Jacob; Saake, Gunter; Leich, Thomas

In: MEDES 2022 - New York, NY : ACM, insges. 4 S. [Konferenz: 14th International Conference on Management of Digital EcoSystems, Venice, Italy, 20-21 October 2022]

On academic age aspect and discovering the golden age in software engineering

Alchokr, Rand; Krüger, Jacob; Shakeel, Yusra; Saake, Gunter; Leich, Thomas

In: 15th International Conference on Cooperative and Human Aspects of Software Engineering / IEEE/ACM International Conference on Formal Methods in Software Engineering , 2022 - [Piscataway, NJ] : IEEE ; Baldassarre, Maria Teresa, S. 102-106 [Konferenz: 44th International Conference on Software Engineering, Pittsburgh Pennsylvania, May 21 - 29, 2022]

A collaborative learning environment using blogs in a learning management system

Obionwu, Victor; Broneske, David; Saake, Gunter

In: Computer Science and Education in Computer Science , 1st ed. 2022. - Cham : Springer Nature Switzerland ; Zlateva, Tanya, S. 213-232 - (Lecture notes of the institute for computer sciences, social informatics and telecommunications engineering; volume 450) [Konferenz: 18th EAI International Conference on Computer Science and Education in Computer Science, CSECS 2022, virtual event, June 24-27, 2022]

Weighted altmetric scores to facilitate literature analyses

Shakeel, Yusra; Bharti, Abhisar; Leich, Thomas; Saake, Gunter

In: Linking Theory and Practice of Digital Libraries , 1st ed. 2022. - Cham : Springer International Publishing ; Silvello, Gianmaria, S. 459-465 - ( Lecture notes in computer science; volume 13541) [Konferenz: 26th International Conference on Theory and Practice of Digital Libraries, TPDL 2022, Padua, Italy, September 20-23, 2022]

Slide-recommendation system - a strategy for integrating instructional feedback into online exercise sessions

Obionwu, Victor; Toulouse, Vincent; Broneske, David; Saake, Gunter

In: Proceedings of the 11th International Conference on Data Science, Technology and Applications (DATA 2022) , 2022 - Setúbal : SciTePress - Science and Technology Publications, Lda. ; Cuzzocrea, Alfredo, S. 541-548

UCRP-miner - mining patterns that matter

Darrab, Sadeq; Broneske, David; Saake, Gunter

In: 2022 5th International Conference on Data Science and Information Technology (DSIT) , 2022 - New York,NY,United States : Association for Computing Machinery, insges. 7 S. [Konferenz: 5th International Conference on Data Science and Information Technology, DSIT, Shanghai, China, 22-24 July 2022]

Empirical evaluation of BPMN extension language

Lodhi, Azeem; Saake, Gunter; Turowski, Klaus

In: Proceedings of the 14th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management. Volume 3 - SCITEPRESS ; Bernardino, Jorge . - 2022, S. 239-247 [Konferenz: 14th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management, KMIS,Valletta, Malta, 2022]

A closer look into collaborative publishing at software-engineering conferences

Alchokr, Rand; Krüger, Jacob; Shakeel, Yusra; Saake, Gunter; Leich, Thomas

In: Linking Theory and Practice of Digital Libraries , 1st ed. 2022. - Cham : Springer International Publishing ; Silvello, Gianmaria, S. 395-402 - ( Lecture notes in computer science; volume 13541) [Konferenz: 26th International Conference on Theory and Practice of Digital Libraries, TPDL 2022, Padua, Italy, September 20-23, 2022]

A systematic mapping study of security concepts for configurable data storages

May, Richard; Biermann, Christian; Krüger, Jacob; Saake, Gunter; Leich, Thomas

In: Proceedings of the 26th ACM International Systems and Software Product Line Conference - Volume A / Felfernig , Alexander - New York,NY,United States : Association for Computing Machinery ; Felfernig, Alexander . - 2022, S. 108-119 [Konferenz: 26th ACM International Systems and Software Product Line Conference, SPLC '22, Graz , Austria, September 12 - 16, 2022]

Incorporating altmetrics to support selection and assessment of publications during literature analyses

Shakeel, Yusra; Alchokr, Rand; Krüger, Jacob; Leich, Thomas; Saake, Gunter

In: The International Conference on Evaluation and Assessment in Software Engineering 2022 / Staron , Miroslaw - New York,NY,United States : Association for Computing Machinery ; Staron, Miroslaw, S. 180-189 [International Conference on Evaluation and Assessment in Software Engineering 2022, EASE 2022, Gothenburg Sweden, June 13 - 15, 2022]

Peer-reviewing and submission dynamics around top software-engineering venues - a juniors perspective

Alchokr, Rand; Krüger, Jacob; Shakeel, Yusra; Saake, Gunter; Leich, Thomas

In: The International Conference on Evaluation and Assessment in Software Engineering 2022 / Staron , Miroslaw - New York,NY,United States : Association for Computing Machinery ; Staron, Miroslaw, S. 60-69 [International Conference on Evaluation and Assessment in Software Engineering 2022, EASE 2022, Gothenburg Sweden, June 13 - 15, 2022]

OPECUR - an enhanced clustering-based model for discovering unexpected rules

Darrab, Sadeq; Bhardwaj, Priyamvada; Broneske, David; Saake, Gunter

In: Advanced Data Mining and Applications , 1st ed. 2022. - Cham : Springer International Publishing ; Li, Bohan, S. 29-41 - (Lecture notes in computer science; volume 13088) [Konferenz: 17th International Conference, ADMA 2021, Sydney, NSW, Australia, February 2-4, 2022]

Integer time series compression for holistic data analytics in the context of vehicle sensor data

Vox, Christopher; Broneske, David; Piewek, Jan; Sass, Andreas Udo; Saake, Gunter

In: ICCVE 2022 conference proceedings / IEEE ICCVE , 2022 - Piscataway, NJ, USA : IEEE, insges. 7 S. [Konferenz: International Conference on Connected Vehicle and Expo, ICCVE, Lakeland, FL, USA, 07-09 March 2022]

Altmetrics and citation counts - an empirical analysis of the computer science domain

Shakeel, Yusra; Alchokr, Rand; Kruger, J.; Leich, Thomas; Saake, Gunter

In: Proceedings of the 22nd ACM/IEEE Joint Conference on Digital Libraries / Aizawa , Akiko - New York,NY,United States : Association for Computing Machinery ; Aizawa, Akiko . - 2022, S. 1-11

Dissertation

Analytical business process modeling language

Lodhi, Azeem; Saake, Gunter; Turowski, Klaus

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2022, 1 Online-Ressource (xiv, 170 Seiten, 4,82 MB) [Literaturverzeichnis: Seite 145-170][Literaturverzeichnis: Seite 145-170]

On optimal storage for heterogeneous hybrid transactional/analytical processing

Pinnecke, Marcus; Saake, Gunter

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2022, 1 Online-Ressource (xiii, 150 Seiten, 6,95 MB) [Literaturverzeichnis: Seite 133-150][Literaturverzeichnis: Seite 133-150]

Efficient interactive and automated product-line configuration

Krieter, Sebastian; Saake, Gunter; Leich, Thomas

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2022, 1 Online-Ressource (xiv, 159 Seiten, 2,62 MB) [Literaturverzeichnis: Seite 143-159][Literaturverzeichnis: Seite 143-159]

2021

Aufsatz

Fecal metaproteomics reveals reduced gut inflammation and changed microbial metabolism following lifestyle-induced weight loss

Biemann, Ronald; Buß, Enrico; Benndorf, Dirk; Lehmann, Theresa; Schallert, Kay; Püttker, Sebastian; Reichl, Udo; Isermann, Berend; Schneider, Jochen; Saake, Gunter; Heyer, Robert

In: Biomolecules - Basel : MDPI - Vol.11.2021, 5, 726, insgesamt 13 Seiten

An investigation of alternatives to transform protein sequence databases to a columnar index schema

Zoun, Roman; Schallert, Kay; Broneske, David; Trifonova, Ivayla; Chen, Xiao; Heyer, Robert; Benndorf, Dirk; Saake, Gunter

In: Algorithms - Basel : MDPI, Bd. 14 (2021), Heft 2, Artikel 59, insges. 16 S.

Buchbeitrag

Analysis of GPU-libraries for rapid prototyping database operations - a look into library support for database operations

Subramanian, Harish Kumar Harihara; Gurumurthy, Bala; Durand, Gabriel Campero; Broneske, David; Saake, Gunter

In: 2021 IEEE 37th International Conference on Data Engineering workshops / IEEE International Conference on Data Engineering , 2021 - Piscataway, NJ : IEEE, S. 36-41 [Workshop: IEEE 37th International Conference on Data Engineering Workshops, ICDEW, Chania, Greece, 19-22 April 2021]

MaxRI - a method for discovering maximal rare itemsets

Darrab, Sadeq; Broneske, David; Saake, Gunter

In: 2021 4th International Conference on Data Science and Information Technology - New York,NY,United States : Association for Computing Machinery, S. 334-341 [Konferenz: 4th International Conference on Data Science and Information Technology, DSIT 2021, Shanghai, China, July 23-25, 2021]

Iterative development and changing requirements - drivers of variability in an industrial system for veterinary anesthesia

Kuiter, Elias; Krüger, Jacob; Saake, Gunter

In: Proceedings of the 25th ACM International Systems and Software Product Line Conference - Volume B / Mousavi , Mohammad Reza - New York,NY,United States : Association for Computing Machinery ; Mousavi, Mohammad Reza . - 2021, S. 113-122 [Konferenz: 25th ACM International Systems and Software Product Line Conference, SPLC '21, Leicester, United Kindom, September 6 - 11, 2021]

An investigation of atomic synchronization for sort-based group-by aggregation on GPUs

Gurumurthy, Bala; Broneske, David; Schäler, Martin; Pionteck, Thilo; Saake, Gunter

In: 2021 IEEE 37th International Conference on Data Engineering workshops / IEEE International Conference on Data Engineering , 2021 - Piscataway, NJ : IEEE, S. 48-53 [Workshop: IEEE 37th International Conference on Data Engineering Workshops, ICDEW, Chania, Greece, 19-22 April 2021]

Begutachteter Zeitschriftenartikel

In-depth analysis of OLAP query performance on heterogeneous hardware

Broneske, David; Drewes, Anna; Gurumurthy, Bala; Hajjar, Imad; Pionteck, Thilo; Saake, Gunter

In: Datenbank-Spektrum - Berlin : Springer, Bd. 21 (2021), S. 133-143

variED - an editor for collaborative, real-time feature modeling

Kuiter, Elias; Krieter, Sebastian; Krüger, Jacob; Saake, Gunter; Leich, Thomas

In: Empirical software engineering - Dordrecht [u.a.] : Springer Science + Business Media B.V, Bd. 26 (2021), Artikel 24, insges. 47 S.

Integrated cycles for urban biomass as a strategy to promote a CO2-neutral society - a feasibility study

Meinusch, Nicole; Kramer, Susanne; Körner, Oliver; Wiese, Jürgen; Seick, Ingolf; Beblek, Anita; Berges, Regine; Illenberger, Bernhard; Illenberger, Marco; Uebbing, Jennifer; Wolf, Maximilian; Saake, Gunter; Benndorf, Dirk; Reichl, Udo; Heyer, Robert

In: Sustainability - Basel : MDPI, Bd. 13 (2021), Heft 17, Artikel 9505, insges. 22 S.

SQLValidator - an online student playground to learn SQL

Obionwu, Victor; Broneske, David; Hawlitschek, Anja; Köppen, Veit; Saake, Gunter

In: Datenbank-Spektrum - Berlin : Springer, Bd. 21 (2021), S. 73-81

Towards multi-purpose main-memory storage structures - exploiting sub-space distance equalities in totally ordered data sets for exact knn queries

Schäler, Martin; Tex, Christine; Köppen, Veit; Broneske, David; Saake, Gunter

In: Information systems - Oxford [u.a.] : Pergamon Press, Bd. 101 (2021), Artikel 101791, insges. 13 S.

Modern Applications and Challenges for Rare Itemset Mining

Darrab, Sadeq; Broneske, David; Saake, Gunter

In: International Journal of Machine Learning and Computing - Singapore : International Association of Computer Science and Information Technology Press (IACSIT), Bd. 11 (2021), Heft 3, S. 208-218

Dissertation

Untersuchungen zur Datenqualität und Nutzerakzeptanz von Forschungsinformationssystemen

Azeroual, Otmane; Saake, Gunter; Arndt, Hans-Knud

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2021, 1 Online-Ressource (XVI, 185 Seiten, 16,82 MB) [Literaturverzeichnis: Seite 149-170][Literaturverzeichnis: Seite 149-170]

Understanding the re-engineering of variant-rich systems - an empirical work on economics, knowledge, traceability, and practices

Krüger, Jacob; Saake, Gunter; Leich, Thomas

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2021, 1 Online-Ressource (xxvi, 242 Seiten, 3,17 MB) [Literaturverzeichnis: Seite 199-242][Literaturverzeichnis: Seite 199-242]

2020

Buchbeitrag

EXtracting product lines from vAriaNTs (EXPLANT)

Krüger, Jacob; Krieter, Sebastian; Saake, Gunter; Leich, Thomas

In: Proceedings of the 14th International Working Conference on Variability Modelling of Software-Intensive Systems / Cordy , Maxime - New York,NY,United States : Association for Computing Machinery ; Cordy, Maxime - 2020, article 13, 2 Seiten [Koinferenz: 14th International Working Conference on Variability Modelling of Software-Intensive Systems, VAMOS '20, Magdeburg, 05. - 07. February 2020]

Optimising operator sets for analytical database processing on FPGAs

Drewes, Anna; Joseph, Jan Moritz; Gurumurthy, Balasubramanian; Broneske, David; Saake, Gunter; Pionteck, Thilo

In: Applied Reconfigurable Computing. Architectures, Tools, and Applications , 1st ed. 2020. - Cham : Springer International Publishing, S. 30-44 - (Lecture Notes in Computer Science; volume 12083) [Symposium: 16th International Applied Recongurable Computing Symposium, ARC, Toledo, Spain, April 1-3, 2020]

Combining two worlds - MonetDB with multi-dimensional index structure support to efficiently query scientific data

Blockhaus, Paul; Broneske, David; Schäler, Martin; Köppen, Veit; Saake, Gunter

In: Scientific and Statistical Database Management - New York, NY : ACM ; Pourabbas, Elaheh - 2020, Art. 29, 4 Seiten [Konferenz: 32nd International Conference on Scientific and Statistical Database Management, SSDBM 2020, Vienna, Austria, 7-9 July 2020]

He..ro DB - a concept for parallel data processing on heterogeneous hardware

Müller, Michael; Leich, Thomas; Pionteck, Thilo; Saake, Gunter; Teubner, Jens; Spinczyk, Olaf

In: Architecture of Computing Systems – ARCS 2020 - 33rd International Conference, Aachen, Germany, May 25–28, 2020, Proceedings , 1st ed. 2020. - Cham : Springer International Publishing ; Brinkmann, André., S. 82-96 - ( Lecture notes in computer science; 12155) [Konferenz: 33rd International Conference on Architecture of Computing Systems, ARCS 2020, Aachen, Germany, May 25-28, 2020]

Effects of explicit feature traceability on program comprehension

Krüger, Jacob; Çalıklı, Gül; Berger, Thorsten; Leich, Thomas; Saake, Gunter

In: Software Engineering 2020 - Bonn : Digitale Bibliothek der Gesellschaft für Informatik e.V. (GI) ; Felderer, Michael *1978-*, S. 79-80 [Tagung: Software Engineering 2020, Innsbruck, Austria, 24.-28. Februar 2020]

Establishing key performance indicators for measuring software-development processes at a large organization

Sürücü, Cem; Song, Bianying; Krüger, Jacob; Saake, Gunter; Leich, Thomas

In: ESEC/FSE 2020 - New York, NY : ACM, S. 1331-1341 [28th Joint European Software Engineering Conferenceand Symposium on the Foundations of Software Engineering, ESEC/FSE, Virtual, USA, November 8-13, 2020]

Spread the good around! - information propagation in schema matching and entity resolution for heterogeneous data

Durand, Gabriel Campero; Daur, Anshu; Kumar, Vinayak; Suman, Shivalika; Aftab, Altaf Mohammed; Karim, Sajad; Diwesh, Prafulla; Hegde, Chinmaya; Setlur, Disha; Ismail, Syed Md; Broneske, David; Saake, Gunter

In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2726 (2020), insges. 5 S. [Workshop: 2nd International Workshop on Challenges and Experiences from Data Integration to Knowledge Graphs, Tokyo, Japan, August 31, 2020]

Analysis of breast cancer detection using different machine learning techniques

Mohammed, Siham; Darrab, Sadeq; Noaman, Salah; Saake, Gunter

In: Data Mining and Big Data , 1st ed. 2020. - Singapore : Springer Singapore ; Tan, Ying, S. 108-117 - ( Communications in Computer and Information Science; volume 1234) [Konferenz: 5th International Conference, DMBD 2020, Belgrade, Serbia, July 1420, 2020]

RPP algorithm - a method for discovering interesting rare itemsets

Darrab, Sadeq; Broneske, David; Saake, Gunter

In: Data Mining and Big Data , 1st ed. 2020. - Singapore : Springer Singapore ; Tan, Ying, S. 14-25 - ( Communications in Computer and Information Science; volume 1234) [Konferenz: 5th International Conference, DMBD 2020, Belgrade, Serbia, July 1420, 2020]

Begutachteter Zeitschriftenartikel

GridTables - a One-Size-Fits-Most H2TAP data store : vision and concept

Pinnecke, Marcus; Campero Durand, Gabriel; Broneske, David; Zoun, Roman; Saake, Gunter

In: Datenbank-Spektrum - Berlin : Springer, Bd. 20 (2020), Heft 1, S. 43-56

Search. review. repeat? - an empirical study of threats to replicating SLR searches

Krüger, Jacob; Lausberger, Christian; Nostitz-Wallwitz, Ivonne; Saake, Gunter; Leich, Thomas

In: Empirical software engineering - Dordrecht [u.a.] : Springer Science + Business Media B.V, Bd. 25 (2020), Heft 1, S. 627-677

Data quality as a critical success factor for user acceptance of research information systems

Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad; Schöpfel, Joachim

In: Data - Basel : MDPI - Volume 5 (2020), issue 2, article 35

Data driven concept for sensor data adaptation of electrochemical sensors for mobile air quality measurements

Esatbeyoǧlu, Enes; Cassebaum, Oliver; Arras, Florian; Saake, Gunter

In: Journal of the Electrochemical Society - Bristol : IOP Publishing - JES - Volume 167 (2020), issue 4, article 047518, 8 Seiten

Dissertation

Towards efficient and effective entity resolution for high-volume and variable data

Chen, Xiao; Saake, Gunter; Nürnberger, Andreas

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2020, xviii, 148 Seiten [Literaturverzeichnis: Seite 129-147][Literaturverzeichnis: Seite 129-147]

Analytic cloud platform for near real-time mass spectrometry processing on the fast data architecture

Zoun, Roman; Saake, Gunter; Benndorf, Dirk

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2020, xiii, 132 Seiten [Literaturverzeichnis: Seite 117-132][Literaturverzeichnis: Seite 117-132]

Measuring and improving code quality in highly configurable software systems

Fenske, Wolfram; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2020, xviii, 222 Seiten [Literaturverzeichnis: Seite 193-221][Literaturverzeichnis: Seite 193-221]

Artikel in Kongressband

When vectorwise meets hyper, pipeline breakers become the moderator

Gurumurthy, Balasubramanian; Hajjar, Imad; Broneske, David; Pionteck, Thilo; Saake, Gunter

In: ADMS 2020 - Tokyo

Nicht begutachteter Zeitschriftenartikel

GPU-accelerated dynamic programming for join-order optimization

Meister, Andreas; Saake, Gunter

In: Magdeburg: Fakultät für Informatik, Otto-von-Guericke-Universität Magdeburg, 2020, 1 Online-Ressource (28 Seiten, 0,6 MB) - (Technical Report; Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik; 02-2020)

Dependency-aware parallel enumeration for join-order optimization - search for the best design options

Meister, Andreas; Saake, Gunter

In: Magdeburg: Fakultät für Informatik, Otto-von-Guericke-Universität Magdeburg, 2020, 1 Online-Ressource (34 Seiten, 0,52 MB) - (Technical Report; Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik; 01-2020)

2019

Aufsatz

Metaproteome analysis reveals that syntrophy, competition, and phage-host interaction shape microbial communities in biogas plants

Heyer, Robert; Schallert, Kay; Siewert, C.; Kohrs, F.; Greve, J.; Maus, I.; Klang, J.; Klocke, M.; Heiermann, M.; Hoffmann, Michael; Püttker, Sebastian; Calusinska, M.; Zoun, Roman; Saake, Gunter; Benndorf, Dirk; Reichl, Udo

In: Microbiome - London : Biomed Central, Bd. 7 (2019), Artikel 69, insges. 17 S.

Buchbeitrag

GridFormation - towards self-driven online data partitioning using reinforcement learning

Campero Durand, Gabriel; Pinnecke, Marcus; Piriyev, Rufat; Mohsen, Mahmoud; Broneske, David; Saake, Gunter; Sekeran, Maya S.; Rodriguez, Fabián; Balami, Laxmi

In: Proceedings of the First International Workshop on Exploiting Artificial Intelligence Techniques for Data Management - New York, NY : ACM - 2018, Artikel No. 1 [Workshop: First International Workshop on Exploiting Artificial Intelligence Techniques for Data Management , aiDM'18, Houston, TX, USA, June 10, 2018]

Efficient transformation of protein sequence databases to columnar index schema

Zoun, Roman; Schallert, Kay; Broneske, David; Trifonova, Ivayla; Chen, Xiao; Heyer, Robert; Benndorf, Dirk; Saake, Gunter

In: Database and Expert Systems Applications , 1st ed. 2019 - Cham : Springer ; Anderst-Kotsis, Gabriele, S. 67-72 - (Communications in Computer and Information Science; volume 1062) [Konferenz: International Conference on Database and Expert Systems Applications, DEXA 2019, Linz, Austria, August 26-29, 2019]

MSDataStream - connecting a bruker mass spectrometer to the internet

Zoun, Roman; Schallert, Kay; Broneske, David; Fenske, Wolfram; Pinnecke, Marcus; Heyer, Robert; Brehmer, Sven; Benndorf, Dirk; Saake, Gunter

In: Datenbanksysteme für Business, Technologie und Web / BTW , 2019 - Bonn : Gesellschaft für Informatik e.V. ; Grust, Torsten, S. 507-510 - (GI-Edition - Lecture notes in informatics; Proceedings$l289) [Fachtagung: 18. Fachtagung "Datenbanksysteme für Business, Technologie und Web", BTW 2019, Rostock, 4.-8. März 2019]

Quality of research information in RIS databases - a multidimensional approach

Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad; Schöpfel, Joachim

In: Business Information Systems - Cham : Springer ; Abramowicz, Witold . - 2019, S. 337-349 - ( Lecture Notes in Business Information Processing; volume 353) [Konferenz: 22nd International Conference on Business Information Systems, BIS 2019, Seville, Spain, June 26-28, 2019]

Heterogeneous committee-based active learning for entity resolution (HeALER)

Chen, Xiao; Xu, Yinlong; Broneske, David; Durand Campero, Gabriel; Zoun, Roman; Saake, Gunter

In: Advances in Databases and Information Systems , 1st ed. 2019 - Cham : Springer ; Welzer, Tatjana, S. 69-85 - (Lecture Notes in Computer Science; volume 11695) [Konferenz: European Conference on Advances in Databases and Information Systems, ADBIS 2019, Bled, Slovenia, September 8-11, 2019]

The best of both worlds - combining hand-tuned and word-embedding-based similarity measures for entity resolution

Chen, Xiao; Campero Durand, Gabriel; Zoun, Roman; Broneske, David; Li, Yang; Saake, Gunter

In: Datenbanksysteme für Business, Technologie und Web / BTW , 2019 - Bonn : Gesellschaft für Informatik e.V. ; Grust, Torsten, S. 215-224 - (GI-Edition - Lecture notes in informatics; Proceedings$l289) [Fachtagung: 18. Fachtagung "Datenbanksysteme für Business, Technologie und Web", BTW 2019, Rostock, 4.-8. März 2019]

Foundations of collaborative, real-time feature modeling

Kuiter, Elias; Krieter, Sebastian; Krüger, Jacob; Leich, Thomas; Saake, Gunter

In: Proceedings of the 22nd International Systems and Software Product Line Conference - Volume A - New York, NY : ACM ; Berger, Thorsten . - 2019, S. 257-264 [Konferenz: 23rd International Systems and Software Product Line Conference, SPLC '19, Paris, France, September 09 - 13, 2019]

Protobase - it's about time for Backend/Database co-design

Pinnecke, Marcus; Campero Durand, Gabriel; Zoun, Roman; Broneske, David; Saake, Gunter

In: Datenbanksysteme für Business, Technologie und Web / BTW , 2019 - Bonn : Gesellschaft für Informatik e.V. ; Grust, Torsten, S. 515-518 - (GI-Edition - Lecture notes in informatics; Proceedings$l289) [Fachtagung: 18. Fachtagung "Datenbanksysteme für Business, Technologie und Web", BTW 2019, Rostock, 4.-8. März 2019]

Codd's world - topics and their evolution in the database community publication graph

Pawar, Rutuja Shivraj; Sobhgol, Sepideh; Campero Durand, Gabriel; Pinnecke, Marcus; Broneske, David; Saake, Gunter

In: Proceedings of the 31st GI-Workshop Grundlagen von Datenbanken , 2019 - Aachen, Germany : RWTH Aachen, S. 74-81 - (CEUR workshop proceedings; vol-2367) [Workshop: 31st GI-Workshop Grundlagen von Datenbanken, Saarburg, Germany, June 11-14, 2019]

Automated vertical partitioning with deep reinforcement learning

Campero Durand, Gabriel; Piriyev, Rufat; Pinnecke, Marcus; Broneske, David; Gurumurthy, Balasubramanian; Saake, Gunter

In: New Trends in Databases and Information Systems , 1st ed. 2019 - Cham : Springer ; Welzer, Tatjana, S. 126-134 - (Communications in Computer and Information Science; volume 1064) [Konferenz: European Conference on Advances in Databases and Information Systems, ADBIS 2019, Bled, Slovenia, September 8-11, 2019]

Indicating studies' quality based on open data in digital libraries

Shakeel, Yusra; Krüger, Jacob; Saake, Gunter; Leich, Thomas

In: Business Information Systems Workshops - Cham : Springer International Publishing ; Abramowicz, Witold *1954-* . - 2019, S. 579-590 - (Lecture Notes in Business Information Processing; 339) [Workshop: International Workshops, BIS 2018, Berlin, Germany, July 18-20, 2018]

Context selection in a heterogeneous legal ontology

Wehnert, Sabine; Fenske, Wolfram; Saake, Gunter

In: Datenbanksysteme für Business, Technologie und Web - Bonn : Gesellschaft für Informatik e.V. ; Grust, Torsten . - 2019, S. 129-134 - (GI-Edition - Lecture notes in informatics; Proceedings$l289) [Fachtagung: 18. Fachtagung "Datenbanksysteme für Business, Technologie und Web", BTW 2019, Rostock, 4.-8. März 2019]

Program comprehension and developers' memory

Krüger, Jacob; Wiemann, Jens; Fenske, Wolfram; Saake, Gunter; Leich, Thomas

In: Informatik 2019 - Bonn : Gesellschaft für Informatik e.V. ; David, Klaus *1961-*, S. 99-100 - (GI-Edition; Lecture notes in informatics; Proceedings$l294)

Effects of explicit feature traceability on program comprehension

Krüger, Jacob; Çalıklı, Gül; Berger, Thorsten; Leich, Thomas; Saake, Gunter

In: Proceedings of the 2019 27th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering - New York, NY : ACM, S. 338-349 [Konferenz: 27th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering, ESEC/FSE 2019, Tallinn, Estonia, August 26 - 30, 2019]

Understanding how programmers forget

Krüger, Jacob; Wiemann, Jens; Fenske, Wolfram; Saake, Gunter; Leich, Thomas

In: Software Engineering und Software Management 2019 , 2019 - Bonn : Gesellschaft für Informatik e.V. ; Becker, Steffen *1977-*, S. 85-86 [Konferenz: Software Engineering and Software Management, SE/SWM 2019, Stuttgart, Germany, February 18-22, 2019]

Mutation operators for feature-oriented software product lines

Krüger, Jacob; Al-Hajjaji, Mustafa; Leich, Thomas; Saake, Gunter

In: Proceedings of the 22nd International Systems and Software Product Line Conference - Volume A - New York, NY : ACM ; Berger, Thorsten . - 2019, S. 12 [Konferenz: 23rd International Systems and Software Product Line Conference, SPLC '19, Paris, France, September 09 - 13, 2019]

Begutachteter Zeitschriftenartikel

A robust and universal metaproteomics workflow for research studies and routine diagnostics within 24 h using phenol extraction, FASP digest, and the MetaProteomeAnalyzer

Heyer, Robert; Schallert, Kay; Büdel, Anja; Zoun, Roman; Dorl, Sebastian; Behne, Alexander; Kohrs, Fabian; Püttker, Sebastian; Siewert, Corina; Muth, Thilo; Saake, Gunter; Reichl, Udo; Benndorf, Dirk

In: Frontiers in microbiology - Lausanne : Frontiers Media - 10 (2019), article 1883, insgesamt 20 Seiten

Automated selection and quality assessment of primary studies - a systematic literature review

Shakeel, Yusra; Krüger, Jacob; Nostitz-Wallwitz, Ivonne; Saake, Gunter; Leich, Thomas

In: Journal of data and information quality - New York, NY : ACM - Volume 12, issue 1 (2019), article no. 4, insgesamt 26 Seiten

ETL best practices for data quality checks in RIS databases

Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad

In: Informatics - Basel : MDPI - Volume 6, issue 1, article 10, insgesamt 13 Seiten

Efficient evaluation of multi-column selection predicates in main-memory

Broneske, David; Köppen, Veit; Saake, Gunter; Schaler, Martin

In: IEEE transactions on knowledge and data engineering / Institute of Electrical and Electronics Engineers - Piscataway, NJ : IEEE Service Center, Bd. 31 (2019), Heft 7, S. 1296-1311

Dissertation

Accelerating mono and multi-column selection predicates in modern main-memory database systems

Broneske, David; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, xx, 138 Seiten [Literaturverzeichnis: Seite 125-138][Literaturverzeichnis: Seite 125-138]

Multi-dimensional server consolidation for commercial off-the-shelf enterprise applications using shared performance counters

Müller, Hendrik; Turowski, Klaus; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, xvi, 190 Seiten [Literaturverzeichnis: Seite 167-187][Literaturverzeichnis: Seite 167-187]

Variational debugging - understanding differences among executions

Meinicke, Jens; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, x, 100 Seiten [Literaturverzeichnis: Seite 85-100][Literaturverzeichnis: Seite 85-100]

Habilitation

Analysis techniques to support the evolution of variant-rich software systems

Schulze, Sandro; Saake, Gunter

In: Magdeburg, Habilitationsschrift Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, xvi, 70 Seiten [Literaturverzeichnis: Seite 65-70][Literaturverzeichnis: Seite 65-70]

Wissenschaftliche Monographie

An evaluation of deep hashing for high-dimensional similarity search on embedded data

Pawar, Rutuja Shivraj; Saake, Gunter; Durand Campero, Gabriel

In: Magdeburg: Universitätsbibliothek, Masterarbeit Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, 1 Online-Ressource (iv, 156 Seiten, 12,73 MB) [Literaturverzeichnis: Seite 137-156; Matriculation No. 220051]

Nicht begutachteter Zeitschriftenartikel

Threshold-based retrieval and textual entailment detection on legal bar exam questions

Wehnert, Sabine; Hoque, Sayed Anisul; Fenske, Wolfram; Saake, Gunter

In: De.arxiv.org - [S.l.] : Arxiv.org - 2019, Artikel 1905.13350, insgesamt 9 Seiten

MStream: proof of concept of an analytic cloud platform for near-real-time diagnostics using mass spectrometry data

Zoun, Roman; Schallert, Kay; Broneske, David; Falkenberg, Sören; Heyer, Robert; Wehnert, Sabine; Brehmer, Sven; Benndorf, Dirk; Saake, Gunter

In: Magdeburg: Fakultät für Informatik, Otto-von-Guericke-Universität Magdeburg, 2019, 1 Online-Ressource (11 ungezählte Seiten, 1,08 MB) - (Technical Report; Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik; 002-2019)

Finding the best design options for the parallel dynamic programming approach with skip vector arrays for join-order optimization

Meister, Andreas; Saake, Gunter

In: Magdeburg: Fakultät für Informatik, Otto-von-Guericke-Universität Magdeburg, 2019, 1 Online-Ressource (29 Seiten, 0,33 MB) - (Technical Report; Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik; 01-2019)

2018

Buchbeitrag

Forward secure searchable symmetric encryption

Niaz, Muhammad Saqib; Saake, Gunter

In: 2017 12th International Conference for Internet Technology and Secured Transactions (ICITST) , 2017 - Piscataway, NJ : IEEE . - 2018, S. 49-54 [Konferenz: 12th International Conference for Internet Technology and Secured Transactions, ICITST 2017, Cambridge, UK, 11-14 December 2017]

Towards automated test refactoring for software product lines

Krüger, Jacob; Al-Hajjaji, Mustafa; Schulze, Sandro; Saake, Gunter; Leich, Thomas

In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM ; Berger, Thorsten . - 2018, S. 143-148 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]

Streaming FDR calculation for protein identification

Zoun, Roman; Schallert, Kay; Janki, Atin; Ravindran, Rohith; Durand Campero, Gabriel; Fenske, Wolfram; Broneske, David; Heyer, Robert; Benndorf, Dirk; Saake, Gunter

In: New Trends in Databases and Information Systems - Cham : Springer International Publishing ; Benczúr, András . - 2018, S. 80-87 - (Communications in Computer and Information Science; 909) [Konferenz: European Conference on Advances in Databases and Information Systems, ADBIS, Budapest, Hungary, September, 2-5, 2018]

Memory management strategies in CPU/GPU database systems - a survey

Arefyeva, Iya; Broneske, David; Durand Campero, Gabriel; Pinnecke, Marcus; Saake, Gunter

In: Beyond Databases, Architectures and Structures. Facing the Challenges of Data Proliferation and Growing Variety - Cham : Springer International Publishing ; Kozielski, Stanisław . - 2018, S. 128-142 - (Communications in Computer and Information Science; 928) [Konferenz: 14th International Conference, BDAS 2018, Poznan, Poland, September 18-20, 2018]

SIMD acceleration for main-memory index structures - a survey

Wallewein-Eising, Marten; Broneske, David; Saake, Gunter

In: Beyond Databases, Architectures and Structures. Facing the Challenges of Data Proliferation and Growing Variety - Cham : Springer International Publishing . - 2018, S. 105-119 - (Communications in Computer and Information Science; 928) [Konferenz: 14th International Conference, BDAS 2018, Poznan, Poland, September 18-20, 2018]

(Automated) literature analysis - threats and experiences

Shakeel, Yusra; Krüger, Jacob; Nostitz-Wallwitz, Ivonne; Lausberger, Christian; Durand Campero, Gabriel; Saake, Gunter; Leich, Thomas

In: Proceedings of the International Workshop on Software Engineering for Science - New York, NY : ACM . - 2018, S. 20-27 [Workshop: International Workshop on Software Engineering for Science, SE4Science '18, Gothenburg, Sweden, June 02, 2018]

Streamlining processes for digitalization

Lodhi, A.; Köppen, Veit; Saake, Gunter; Turowski, Klaus

In: 11th IADIS International Conference Information Systems 2018 , 2018 - Red Hook, NY : Curran Associates, Inc., S. 95-104 [Konferenz: 11th International Conference on Information Systems, IADIS, Lisbon, Portugal, 14-16 April 2018]

Performance comparison of three spark-based implementations of parallel entity resolution

Chen, Xiao; Rapuru, Kirity; Durand, Gabriel; Schallehn, Eike; Saake, Gunter

In: Database and Expert Systems Applications - Cham : Springer International Publishing . - 2018, S. 76-87 - (Communications in Computer and Information Science; 903) [Workshop: 3. International Workshop on Big Data Management in Cloud Systems, BDMICS, Regensburg, Germany, 03. - 06.09.2018]

Protein identification as a suitable application for fast data architecture

Zoun, Roman; Durand, Gabriel; Schallert, Kay; Patrikar, Apoorva; Broneske, David; Fenske, Wolfram; Heyer, Robert; Benndorf, Dirk; Saake, Gunter

In: Database and Expert Systems Applications - Cham : Springer International Publishing . - 2018, S. 168-178 - (Communications in Computer and Information Science; 903) [Workshop: 9. International Workshop on Biological Knowledge Discovery from Data, BIOKDD, Regensburg, Germany, 03. - 06.09.2018]

SIMD vectorized hashing for grouped aggregation

Gurumurthy, Balasubramanian; Broneske, David; Pinnecke, Marcus; Durand Campero, Gabriel; Saake, Gunter

In: Advances in databases and information systems / ADBIS , 2018 - Cham : Springer International Publishing ; Benczúr, András, S. 113-126 - (Lecture Notes in Computer Science; 11019) [Konferenz: 22nd European Conference, ADBIS 2018, Budapest, Hungary, September 2-5, 2018]

Visual guidance for product line configuration using recommendations and non-functional properties

Pereira, Juliana Alves; Martinez, Jabier; Gurudu, Hari Kumar; Krieter, Sebastian; Saake, Gunter

In: Proceedings of the 33rd Annual ACM Symposium on Applied Computing 2018 - New York, NY : ACM, S. 2058-2065 [Symposium: 33rd Annual ACM Symposium on Applied Computing, SAC '18, Pau, France, April 09 - 13, 2018]

Adaptive data processing in heterogeneous hardware systems

Gurumurthy, Balasubramanian; Drewes, Tobias; Broneske, David; Saake, Gunter; Pionteck, Thilo

In: CEUR workshop proceedings - Aachen : RWTH, Bd. 2126 (2018), S. 10-15 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]

Applicability of security measures in a wireless sensor network use case

Leuckert, Martin; Mertens, Peter R.; Saake, Gunter

In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2126 (2018), S. 47-52 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]

Piecing together large puzzles, efficiently - towards scalable loading into graph database systems

Campero Durand, Gabriel; Ma, Jingy; Pinnecke, Marcus; Saake, Gunter

In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2126 (2018), S. 95-100 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]

Connecting X! Tandem to a database management system

Janki, Atin; Zoun, Roman; Schallert, Kay; Ravindran, Rohith; Broneske, David; Fenske, Wolfram; Heyer, Robert; Benndorf, Dirk; Saake, Gunter

In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2126 (2018), S. 77-82 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]

Untersuchungen zur Konzeptentwicklung für eine Verbesserung der Datenqualität in Forschungsinformationssystemen - Investigations of concept development to improve data quality in research information systems

Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad

In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2126 (2018), S. 29-34 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]

Extracting features from requirements - achieving accuracy and automation with neural networks

Li, Yang; Schulze, Sandro; Saake, Gunter

In: 25th IEEE International Conference on Software Analysis, Evolution and Reengineering - Piscataway, NJ : IEEE ; IEEE International Conference on Software Analysis, Evolution and Reengineering (25.:2018), S. 477-481 [Konferenz: 25th IEEE International Conference on Software Analysis, Evolution and Reengineering, SANER 2018, Campobasso, Italy, 20-23 March 2018]

Do you remember this source code?

Krüger, Jacob; Wiemann, Jens; Fenske, Wolfram; Saake, Gunter; Leich, Thomas

In: Proceedings of the 40th International Conference on Software Engineering - New York, NY : ACM . - 2018, S. 764-775 [Konferenz: 40th International Conference on Software Engineering, ICSE '18, Gothenburg, Sweden, May 27 - June 03. 2018]

Propagating configuration decisions with modal implication graphs

Krieter, Sebastian; Thüm, Thomas; Schulze, Sandro; Schröter, Reimar; Saake, Gunter

In: Proceedings of the 40th International Conference on Software Engineering - New York, NY : ACM . - 2018, S. 898-909 [Konferenz: 40th International Conference on Software Engineering, ICSE '18, Gothenburg, Sweden, May 27 - June 03. 2018]

A context-aware recommender system for extended software product line configurations

Pereira, Juliana Alves; Schulze, Sandro; Krieter, Sebastian; Ribeiro, Márcio; Saake, Gunter

In: Proceedings of the 12th International Workshop on Variability Modelling of Software-intensive Systems - New York : ACM . - 2018, S. 97-104 [Workshop: 12th International Workshop on Variability Modelling of Software-intensive Systems, VAMOS 2018, Madrid, Spain, February 07-09, 2018]

N-dimensional tensor factorization for self-configuration of software product lines at runtime

Pereira, Juliana Alves; Schulze, Sandro; Figueiredo, Eduardo; Saake, Gunter

In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM . - 2018, S. 87-97 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]

Reverse engineering variability from requirement documents based on probabilistic relevance and word embedding

Li, Yang; Schulze, Sandro; Saake, Gunter

In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM . - 2018, S. 121-131 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]

Exploring large scholarly networks with hermes

Durand Campero, Gabriel; Janardhana, Anusha; Pinnecke, Marcus; Shakeel, Yusra; Krüger, Jacob; Leich, Thomas; Saake, Gunter

In: Advances in Database Technology - EDBT 2018 , 2018 - Konstanz, Germany : University of Konstanz, University Library ; Böhlen, Michael *1964-*, S. 650-653 [Konferenz: 21st International Conference on Extending Database Technology, EDBT, Vienna, Austria, March 26-29, 2018]

Apo-games - a case study for reverse engineering variability from cloned Java variants

Krüger, Jacob; Fenske, Wolfram; Thüm, Thomas; Aporius, Dirk; Saake, Gunter; Leich, Thomas

In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM ; Berger, Thorsten . - 2018, S. 251-256 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]

Getting rid of clone-and-own - moving to a software product line for temperature monitoring

Kuiter, Elias; Krüger, Jacob; Krieter, Sebastian; Leich, Thomas; Saake, Gunter

In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM ; Berger, Thorsten . - 2018, S. 179-189 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]

Exploring spark-SQL-based entity resolution using the persistence capability

Chen, Xiao; Zoun, Roman; Schallehn, Eike; Mantha, Sravani; Rapuru, Kirity; Saake, Gunter

In: Beyond Databases, Architectures and Structures. Facing the Challenges of Data Proliferation and Growing Variety - Cham : Springer International Publishing ; Kozielski, Stanisław . - 2018, S. 3-17 - (Communications in Computer and Information Science; 928) [Konferenz: 14th International Conference, BDAS 2018, Poznan, Poland, September 18-20, 2018]

PClocator - a tool suite to automatically identify configurations for code locations

Kuiter, Elias; Krieter, Sebastian; Krüger, Jacob; Ludwig, Kai; Leich, Thomas; Saake, Gunter

In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM ; Berger, Thorsten . - 2018, S. 284-288 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]

Begutachteter Zeitschriftenartikel

A systematic literature review on the semi-automatic configuration of extended product lines

Ochoa, Lina; González-Rojas, Oscar; Juliana, Alves Pereira; Castro, Harold; Saake, Gunter

In: The journal of systems and software - Amsterdam [u.a.] : Elsevier, Bd. 144 (2018), S. 511-532

Personalized recommender systems for product-line configuration processes

Pereira, Juliana Alves; Matuszyk, Pawel; Krieter, Sebastian; Spiliopoulou, Myra; Saake, Gunter

In: Computer languages, systems and structures - Amsterdam [u.a.] : Elsevier Science . - 2018, insges. 21 S.

Analyzing data quality issues in research information systems via data profiling

Azeroual, Otmane; Saake, Gunter; Schallehn, Eike

In: International journal of information management - Kidlington : Elsevier : Pergamon, Bd. 41 (2018), S. 50-56

Errata for "Analysis of two existing and one new dynamic programming algorithm for the generation of optimal bushy join trees without cross products"

Meister, Andreas; Moerkotte, Guido; Saake, Gunter

In: Proceedings of the VLDB Endowment - [New York, NY] : Assoc. of Computing Machinery, Bd. 11 (2018), Heft 10, S. 1069-1070

Data quality measures and data cleansing for research information systems

Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad

In: Journal of digital information management - Chennai : Foundation, Bd. 16 (2018), Heft 1, S. 12-21

Cooking DBMS operations using granular primitives - an overview on a primitive-based RDBMS query evaluation

Gurumurthy, Balasubramanian; Broneske, David; Drewes, Tobias; Pionteck, Thilo; Saake, Gunter

In: Datenbank-Spektrum - Berlin : Springer, Bd. 18 (2018), Heft 3, S. 183-193

Integration of FPGAs in database management systems - challenges and opportunities

Becher, Andreas; Broneske, David; Drewes, Tobias; Gurumurthy, Balasubramanian; Meyer-Wegener, Klaus; Pionteck, Thilo; Saake, Gunter; Teich, Jürgen; Wildermann, Stefan

In: Datenbank-Spektrum - Berlin : Springer, Bd. 18 (2018), Heft 3, S. 145-156

An eight-dimensional systematic evaluation of optimized search algorithmson modern processors

Schulz, Lars-Christian; Broneske, David; Saake, Gunter

In: Proceedings of the VLDB Endowment - [New York, NY] : Assoc. of Computing Machinery, Bd. 11 (2018), Heft 11, S. 1550-1562

Mutation operators for feature-oriented software product lines

Krüger, Jacob; Al-Hajjaji, Mustafa; Leich, Thomas; Saake, Gunter

In: Software testing, verification & reliability - New York, NY [u.a.] : Wiley - 2018, Art. e1676, insgesamt 21 S. [Online first]

Dissertation

Personalized recommender systems for software product line configurations

Arriel, Juliana; Saake, Gunter; Spiliopoulou, Myra

In: Magdeburg, Dissertationn Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2018, xviii, 206 Seiten [Literaturverzeichnis: Seite [179]-206][Literaturverzeichnis: Seite [179]-206]

Mastering dependencies in multi-language software applications

Schink, Hagen; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2018, xx, 150 Seiten [Literaturverzeichnis: Seite 139-149][Literaturverzeichnis: Seite 139-149]

Industrialization of IT - an information system architecture for application system landscape providers

Hintsch, Johannes; Turowski, Klaus; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2018, xviii, 227 Seiten [Literaturverzeichnis: Seite 199-225][Literaturverzeichnis: Seite 199-225]

Nachhaltige Infrastruktur zur Forschungsdatenpublikation am Beispiel von Hochdurchsatz-Pflanzenphänotypisierungsdaten

Arend, Daniel; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2018, xiv, 146 Seiten [Literaturverzeichnis: Seite 129-146][Literaturverzeichnis: Seite 129-146]

Artikel in Kongressband

Low-latency transaction execution on graphics processors - dream or reality?

Arefyeva, Iya; Durand Campero, Gabriel; Pinnecke, Marcus; Broneske, David; Saake, Gunter

In: ADMS 2018 - Rio De Janeiro, S. 16-21 [Workshop: 9th International Workshop on Accelerating Analytics and Data Management Systems Using Modern Processor and Storage Architectures, ADMS, Rio de Janeiro, 27. August 2018]

Concept hierarchy extraction from legal literature

Wehnert, Sabine; Broneske, David; Langer, Stefan; Saake, Gunter

In: ResearchGATE - Cambridge, Mass. : ResearchGATE Corp. . - 2018, insges. 11 S. [Kongress: CIKM 2018 Workshop on Legal Data Analytics and Mining, LeDAM 2018]

Nicht begutachteter Zeitschriftenartikel

Cloud-scale entity resolution - current state and open challenges

Chen, Xiao; Schallehn, Eike; Saake, Gunter

In: Open journal of big data - Lübeck : RonPub UG, Bd. 4 (2018), Heft 1, S. 30-51

2017

Aufsatz

Challenges and perspectives of metaproteomic data analysis

Heyer, Robert; Schallert, Kay; Zoun, Roman; Becher, Beatrice; Saake, Gunter; Benndorf, Dirk

In: Journal of biotechnology - Amsterdam [u.a.] : Elsevier Science, Bd. 261 (2017), S. 24-36

Interactive chord visualization for metaproteomics

Zoun, Roman; Schallert, Kay; Broneske, David; Heyer, Robert; Benndorf, Dirk; Saake, Gunter

In: 28th International Workshop on Database and Expert Systems Applications , 2017 - Piscataway, NJ : IEEE ; Tjoa, A. Min, S. 79-83

Buchbeitrag

Column vs. row stores for data manipulation in hardware oblivious CPU/GPU database systems

Arefyeva, Iya; Broneske, David; Pinnecke, Marcus; Bhatnagar, Mudit; Saake, Gunter

In: Proceedings of the 29th GI-Workshop Grundlagen von Datenbanken - Aachen, Germany : RWTH Aachen ; Workshop Grundlagen von Datenbanken (29.:Blankenburg (Harz)) . - 2017, S. 24-29 - (CEUR workshop proceedings; 1858) [Workshop: 29th GI-Workshop Grundlagen von Datenbanken, Blankenburg/Harz, Deutschland, 30. Mai - 02. Juni 2017]

Modularization of refinement steps for agile formal methods

Benduhn, Fabian; Thüm, Thomas; Schaefer, Ina; Saake, Gunter

In: Formal Methods and Software Engineering - Cham : Springer . - 2017, S. 19-35 - (Lecture Notes in Computer Science; 10610) [Konferenz: 19th International Conference on Formal Engineering Methods, ICFEM 2017, Xi'an, China, November 13-17, 2017]

Finding lost features in cloned systems

Krüger, Jacob; Nell, Louis; Fenske, Wolfram; Saake, Gunter; Leich, Thomas

In: Proceedings of the 21th International Software Product Line Conference (SPLC 2017). Volume B - New York : ACM ; Beer, Maurice, S. 65-72 [Konferenz: 21th International Software Product Line Conference, SPLC 2017, Sevilla, Spain,September 25 - 29 2017]

FeatureIDE - empowering third-party developers

Krieter, Sebastian; Pinnecke, Marcus; Krüger, Jacob; Sprey, Joshua; Sontag, Christopher; Thüm, Thomas; Leich, Thomas; Saake, Gunter

In: Proceedings of the 21th International Software Product Line Conference (SPLC 2017). Volume B - New York : ACM ; Beer, Maurice, S. 42-45 [Konferenz: 21th International Software Product Line Conference, SPLC 2017, Sevilla, Spain,September 25 - 29 2017]

Beyond software product lines - variability modeling in cyber-physical systems

Krüger, Jacob; Nielebock, Sebastian; Krieter, Sebastian; Diedrich, Christian; Leich, Thomas; Saake, Gunter; Zug, Sebastian; Ortmeier, Frank

In: Proceedings of the 21th International Software Product Line Conference. Volume A - New York : ACM ; Cohen, Myra . - 2017, S. 237-241 [Konferenz: 21th International Software Product Line Conference, SPLC 2017, Sevilla, Spain,September 25 - 29, 2017]

Efficient mutation testing in configurable systems

Al-Hajjaji, Mustafa Zaid Saleh; Krüger, Jacob; Benduhn, Fabian; Leich, Thomas; Saake, Gunter

In: 2017 IEEE/ACM 2nd International Workshop on Variability and Complexity in Software Design - VACE 2017 , 2017 - Piscataway, NJ : IEEE ; Galster, Matthias, S. 2-8 [Workshop: IEEE/ACM 2nd International Workshop on Variability and Complexity in Software Design, VACE 2017, Buenos Aires, Argentina, 27 May 2017]

Delta-oriented product prioritization for similarity-based product-line testing

Al-Hajjaji, Mustafa Zaid Saleh; Lity, Sascha; Lachmann, Remo; Thüm, Thomas; Schaefer, Ina; Saake, Gunter

In: 2017 IEEE/ACM 2nd International Workshop on Variability and Complexity in Software Design - VACE 2017 , 2017 - Piscataway, NJ : IEEE, S. 34-40 [Workshop: IEEE/ACM 2nd International Workshop on Variability and Complexity in Software Design, VACE 2017, Buenos Aires, Argentina, 27 May 2017]

Efficient storage and analysis of genome data in databases

Dorok, Sebastian; Breß, Sebastian; Teubner, Jens; Läpple, Horstfried; Saake, Gunter; Markl, Volker

In: BTW 2017 , 2017 - Bonn : Gesellschaft für Informatik, S. 423-442 - (GI-Edition - lecture notes in informatics; Proceedings$lP-265) [Tagung: Datenbanksysteme für Business, Technologie und Web, BTW 2017, Stuttgart, 6. - 7. März 2017]

Compositional analyses of highly-configurable systems with feature-model interfaces

Schröter, Reimar; Krieter, Sebastian; Thüm, Thomas; Benduhn, Fabian; Saake, Gunter

In: Software Engineering 2017 / Tagung Software Engineering , 2017 - Bonn : Gesellschaft für Informatik e.V. (GI), S. 129 - (GI-Edition - lecture notes in informatics (LNI); Proceedings; volume P-267) [Tagung: Software Engineering 2017, Hannover, 21. - 24. Februar 2017]

How preprocessor annotations (do not) affect maintainability - a case study on change-proneness

Fenske, Wolfram; Schulze, Sandro; Saake, Gunter

In: Proceedings of the 16th ACM SIGPLAN International Conference on Generative Programming - New York, NY: ACM, S. 77-90, 2017[Konferenz: 16th ACM SIGPLAN International Conference on Generative Programming, GPCE 2017, Vancouver, BC, Canada, October 23 - 27, 2017]

Beyond Software Product Lines - Variability Modeling in Cyber-Physical Systems

Krüger, Jacob; Nielebock, Sebastian; Krieter, Sebastian; Diedrich, Christian; Leich, Thomas; Saake, Gunter; Zug, Sebastian; Ortmeier, Frank

In: Proceedings of the 21st International Systems and Software Product Line Conference - Volume A on - SPLC '17, ACM Press, 2017

FeatureIDE - Empowering Third-Party Developers

Krieter, Sebastian; Pinnecke, Marcus; Krüger, Jacob; Sprey, Joshua; Sontag, Christopher; Thüm, Thomas; Leich, Thomas; Saake, Gunter

In: Proceedings of the 21st International Systems and Software Product Line Conference - Volume B on ZZZ - SPLC '17, ACM Press, 2017

A survey on scalability and performance concerns in extended product lines configuration

Ochoa, Lina; Pereira, Juliana Alves; González-Rojas, Oscar; Castro, Harold; Saake, Gunter

In: Proceedings of the eleventh International Workshop on Variability Modelling of Software-intensive Systems, VaMoS'17 - New York : ACM . - 2017, S. 5-12 [Workshop: 11th International Workshop on Variability Modelling of Software-intensive Systems, VaMoS'17, Eindhoven, Netherlands, February 01-03, 2017]

Reverse engineering variability from natural language documents - a systematic literature review

Li, Yang; Schulze, Sandro; Saake, Gunter

In: Proceedings of the 21th International Software Product Line Conference. Volume A - New York : ACM . - 2017, S. 133-142 [Konferenz: 21th International Software Product Line Conference, SPLC 2017, Sevilla, Spain,September 25 - 29, 2017]

Variant-preserving refactorings for migrating cloned products to a product line

Fenske, Wolfram; Meinicke, Jens; Schulze, Sandro; Schulze, Steffen; Saake, Gunter

In: SANER 2017 - Piscataway, NJ : IEEE ; SANER (Veranstaltung:24.), S. 316-326 [Konferenz: 24th IEEE International Conference on Software Analysis, Evolution, and Reengineering, SANer 2017, Klagenfurt, Austria, February 21-24, 2017]

Hardware-sensitive scan operator variants for compiled selection pipelines

Broneske, David; Meister, Andreas; Saake, Gunter

In: BTW 2017 - Bonn : Gesellschaft für Informatik, S. 403-412 - (GI-Edition - lecture notes in informatics; Proceedings$lP-265) [Tagung: Datenbanksysteme für Business, Technologie und Web, BTW 2017, Stuttgart, 6. - 7. März 2017]

Cost-function complexity matters - when does parallel dynamic programming pay off for join-order optimization

Meister, Andreas; Saake, Gunter

In: Advances in Databases and Information Systems / ADBIS , 2017 - Cham : Springer International Publishing, S. 297-310 - (Lecture Notes in Computer Science; 10509) [Konferenz: 21st East European Conference, ADBIS 2017, Nicosia, Cyprus, September 24-27, 2017]

Are databases fit for hybrid workloads on GPUs? - a storage engine's perspective

Pinnecke, Marcus; Broneske, David; Durand Campero, Gabriel; Saake, Gunter

In: ICDE 2017 - Piscataway, NJ : IEEE ; IEEE International Conference on Data Engineering (33.:2017), S. 1599-1606 [Kongress: 2017 IEEE 33rd International Conference on Data Engineering, ICDE 2017, San Diego, California, USA, 19-22 April 2017]

Accelerating multi-column selection predicates in main-memory - the elf approach

Broneske, David; Köppen, Veit; Saake, Gunter; Schäler, Martin

In: ICDE 2017 - Piscataway, NJ : IEEE ; IEEE International Conference on Data Engineering (33.:2017), S. 647-658 [Kongress: 2017 IEEE 33rd International Conference on Data Engineering, ICDE 2017, San Diego, California, USA, 19-22 April 2017]

Backlogs and interval timestamps - building blocks for supporting temporal queries in graph databases

Durand Campero, Gabriel; Pinnecke, Marcus; Broneske, David; Saake, Gunter

In: CEUR workshop proceedings - Aachen : RWTH, Bd. 1810 (2017), insges. 6 S. [Kongress: EDBT/ICDT 2017 Joint Conference,Venice, Italy, March 21-24, 2017. - 6th International Workshop on Querying Graph Structured Data (GraphQ)]

Variability management in infrastructure as a service - scenarios in cloud deployment models

Khan, Ateeq; Hintsch, Johannes; Saake, Gunter; Turowski, Klaus

In: 2017 International Conference on Computing, Networking and Communications (ICNC) , 2017 - Piscataway, NJ : IEEE, S. 724-728 [Kongress: 2017 International Conference on Computing, Networking and Communications (ICNC), Silicon Valley, USA, 26 - 29 Jan. 2017]

Begutachteter Zeitschriftenartikel

Efficiently storing and analyzing genome data in database systems

Dorok, Sebastian; Breß, Sebastian; Teubner, Jens; Läpple, Horstfried; Saake, Gunter; Markl, Volker

In: Datenbank-Spektrum - Berlin : Springer, Bd. 17 (2017), Heft 2, S. 139-154

Composing annotations without regret? - practical experiences using FeatureC

Krüger, Jacob; Pinnecke, Marcus; Kenner, Andy; Kruczek, Christopher; Benduhn, Fabian; Leich, Thomas; Saake, Gunter

In: Software - Chichester [u.a.] : Wiley . - 2017

Exploiting capabilities of modern processors in data intensive applications

Broneske, David; Saake, Gunter

In: Information technology - Berlin : ˜Deœ Gruyter, Bd. 59 (2017), Heft 3, S. 133-140

Dissertation

Similarity-driven prioritization and sampling for product-line testing

Al-Hajjaji, Mustafa Zaid Saleh; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2017, xxii, 164 Seiten [Literaturverzeichnis: Seite 147-163][Literaturverzeichnis: Seite 147-163]

Variability in Service-oriented Computing

Khan Lodhi, Muhammad Ateeq; Saake, Gunter; Turowski, Klaus

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2017, xviii, 152 Seiten [Literaturverzeichnis: Seite 127-149][Literaturverzeichnis: Seite 127-149]

Efficient storage and analysis of genome data in relational database systems

Dorok, Sebastian; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität, Fakultät für Informatik 2017, xx, 134 Seiten [Literaturverzeichnis: Seite [125]-134][Literaturverzeichnis: Seite [125]-134]

Automated query interface for hybrid relational architectures

Lübcke, Andreas; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2017, xviii, 204 Seiten

Cloud-based support for Massively Multiplayer Online Role-Playing Games

Diao, Ziqiang; Saake, Gunter

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2017, xx, 126 Seiten [Literaturverzeichnis: Seite 115-126][Literaturverzeichnis: Seite 115-126]

Wissenschaftliche Monographie

Mastering software variability with FeatureIDE

Meinicke, Jens; Thüm, Thomas; Schröter, Reimar; Benduhn, Fabian; Leich, Thomas; Saake, Gunter

In: Cham: Springer, 2017, Online-Ressource (xii, 243 Seiten) - (SpringerLink; Bücher; Springer eBook Collection; Computer Science), ISBN: 978-3-319-61443-4 [Literaturverzeichnis: Seite 235-239]

Mastering Software Variability with FeatureIDE

Meinicke, Jens; Thüm, Thomas; Schröter, Reimar; Benduhn, Fabian; Leich, Thomas; Saake, Gunter

In: Cham: Springer International Publishing, 2017, 1 Online-Ressource (XII, 243 p. 50 illus., 30 illus. in color)

2016

Buchbeitrag

Variability management in IaaS

Khan, Ateeq; Hintsch, Johannes; Turowski, Klaus; Saake, Gunter

In: 8th IEEE International Conference on Cloud Computing Technology and Science , 2016 - Piscataway, NJ : IEEE, S. 75-78 [Kongress: 8th IEEE International Conference on Cloud Computing Technology and Science, CloudCom 2016, Luxembourg, 12-15 December 2016]

A study on tool support for refactoring in database applications

Schink, Hagen; Siegmund, Janet; Schröter, Reimar; Thüm, Thomas; Saake, Gunter

In: 18. Workshop Software-Reengineering und -Evolution der GI-Fachgruppe Software-Reengineering (SRE) , 2016 - Bonn : Köllen Druck & Verlag GmbH, S. 20-21 [Kongress: 18. Workshop Software-Reengineering und -Evolution der GI-Fachgruppe Software-Reengineering, Bad Honnef, 2. - 4. Mai 2016]

Challenges for a GPU-accelerated dynamic programming approach for join-order optimization

Meister, Andreas; Saake, Gunter

In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 1594 (2016), S. 86-91 [Kongress: 28th GI-Workshop Grundlagen von Datenbanken, Nörten Hardenberg, Germany, May 24-27, 2016]

Extracting software product lines - a cost estimation perspective

Krüger, Jacob; Fenske, Wolfram; Meinicke, Jens; Leich, Thomas; Saake, Gunter

In: Proceedings of the 20th International Software Product Line Conference (SPLC 2011) - Piscataway, NJ : IEEE . - 2016, S. 354-361 [Kongress: 20th International Software Product Line Conference (SPLC 2011), Beijing, China,September 16 - 23, 2016]

A feature-based personalized recommender system for product-line configuration

Pereira, Juliana Alves; Matuszyk, Pawel; Krieter, Sebastian; Spiliopoulou, Myra; Saake, Gunter

In: Proceedings of the 2016 ACM SIGPLAN International Conference on Generative Programming - New York, NY : ACM, S. 120-131 [Kongress: 2016 ACM SIGPLAN International Conference on Generative Programming, GPCE 2016, Amsterdam, Netherlands, October 31 - November 01, 2016]

Mutation operators for preprocessor-based variability

Al-Hajjaji, Mustafa Zaid Saleh; Benduhn, Fabian; Thüm, Thomas; Leich, Thomas; Saake, Gunter

In: Proceedings of the tenth International Workshop on Variability Modelling of Software-intensive Systems, VaMoS'16 - New York : ACM . - 2016, S. 81-88 [Kongress: 10th International Workshop on Variability Modelling of Software-intensive Systems, VaMoS'16, Salvador, Brazil, January 27 - 29, 2016]

IncLing - efficient product-line testing using incremental pairwise sampling

Al-Hajjaji, Mustafa Zaid Saleh; Krieter, Sebastian; Thüm, Thomas; Lochau, Malte; Saake, Gunter

In: Proceedings of the 2016 ACM SIGPLAN International Conference on Generative Programming - New York, NY : ACM, S. 144-155 [Kongress: 2016 ACM SIGPLAN International Conference on Generative Programming, GPCE 2016, Amsterdam, Netherlands, October 31 - November 01, 2016]

Tool demo - testing configurable systems with FeatureIDE

Al-Hajjaji, Mustafa Zaid Saleh; Meinicke, Jens; Krieter, Sebastian; Schröter, Reimar; Thüm, Thomas; Leich, Thomas; Saake, Gunter

In: Proceedings of the 2016 ACM SIGPLAN International Conference on Generative Programming - New York, NY : ACM ; Fischer, Bernd, S. 173-177 [Kongress: 2016 ACM SIGPLAN International Conference on Generative Programming, GPCE 2016, Amsterdam, Netherlands, October 31 - November 01, 2016]

FeatureIDE - taming the preprocessor wilderness

Meinicke, Jens; Thüm, Thomas; Schröter, Reimar; Krieter, Sebastian; Benduhn, Fabian; Saake, Gunter; Leich, Thomas

In: 2016 IEEE/ACM 38th IEEE International Conference on Software Engineering Companion - New York, NJ : The Association for Computing Machinery, S. 629-632 [Kongress: 38th International Conference on Software Engineering Companion, ICSE'16, Austin, Texas,May 14 - 22, 2016]

Comparing algorithms for efficient feature-model slicing

Krieter, Sebastian; Schröter, Reimar; Thüm, Thomas; Fenske, Wolfram; Saake, Gunter

In: Proceedings of the 20th International Software Product Line Conference (SPLC 2011) - Piscataway, NJ : IEEE . - 2016, S. 60-64 [Kongress: 20th International Software Product Line Conference (SPLC 2011), Beijing, China,September 16 - 23, 2016]

Migration from annotation-based to composition-based product lines - towards a tool-driven process

Benduhn, Fabian; Schröter, Reimar; Kenner, Andy; Kruczek, Christopher; Leich, Thomas; Saake, Gunter

In: SOFTENG 2016 - [Wilmington, DE, USA] : IARIA ; International Conference on Advances and Trends in Software Engineering (2.:2016), S. 102-109 [Kongress: Second International Conference on Advances and Trends in Software Engineering, SOFTENG 2016, Lisbon, Portugal, February 21-25, 2016]

Feature-model interfaces - the highway to compositional analyses of highly-configurable systems

Schröter, Reimar; Krieter, Sebastian; Thüm, Thomas; Benduhn, Fabian; Saake, Gunter

In: Proceedings of the 38th International Conference on Software Engineering - Piscataway, NJ : IEEE . - 2016, S. 667-678 [Kongress: 38th International Conference on Software Engineering, ICSE '16, Austin, Texas, May 14 - 22, 2016]

Aus technischen Gründen können nur 200 Publikationen angezeigt werden.

Mehr im Forschungsportal ansehen.

Projekte

Aktuelle Projekte

Learning Adaptivity in Heterogeneous Relational Database Systems (LARDS)
Laufzeit: 01.04.2022 bis 01.04.2026

With the ever-increasing heterogeneity of hardware, the database community is tasked with adapting to the new reality of diverse systems with a rich set of different architectures, capabilities and properties.
The traditional workflow of hand-tuning implementations to the underlying hardware, for peak performance, is commonly considered untenable for an ever-growing variety of hardware with different performance characteristics. Systems like Micro-Adaptivity in Vectorwise or HAWK have been studied as solutions, but their adoption remains limited.
This project aims to explore solutions for a fully adaptive query execution engine and techniques that allow for simple adoption. To achieve this goal, we plan to tackle four problems.
At first, investigate on how to build micro-optimizations into a hardware-oblivious query pipeline in an efficient and simple-to-maintain way, while still offering a large optimization space. Afterwards, we investigate how to select the best optimizations automatically and in an on-the-fly adapting way, depending on the query and hardware properties.
As a third step, we investigate on the integration of the previous research results into a traditional query execution pipeline and query plan generation.
In the last phase of the project, we will explore techniques that can be used to augment the demonstrator with OLTP capabilities and introduce micro-optimizations into transaction processing.

Projekt im Forschungsportal ansehen

Compositional Feature-Model Analyses
Laufzeit: 01.01.2021 bis 01.01.2026

Feature modeling is widely used to systematically model features of variant-rich software systems and their dependencies. By translating feature models into propositional formulas and analyzing them with solvers, a wide range of automated analyses across all phases of the software development process become possible. Most solvers only accept formulas in conjunctive normal form (CNF), so an additional transformation of feature models is often necessary.
In this project, we investigate whether this transformation has a noticeable impact on analyses and how to influence this impact positively. We raise awareness about CNF transformations for feature-model analysis and mitigate it as a threat to validity for research evaluations to ensure reproducibility and fair comparisons. Furthermore, we investigate other steps in the feature-model analysis process, their alternatives, and their interactions; for instance, we study the potential and impact of knowledge compilation, interfaces, slicing, and evolution on feature-model analyses.
Our vision for this project is to lay a foundation for a compositional feature-model analysis algebra; that is, to understand how complex analyses are made of simple parts, how they can be re-assembled, and how those parts interact with each other.

Projekt im Forschungsportal ansehen

Eine allgemeine Speicher-Engine für moderne Speicherhierarchien
Laufzeit: 01.10.2022 bis 30.09.2025

Die wissenschaftliche Forschung wird zunehmend von datenintensiven Problemen bestimmt. Da die Komplexität der untersuchten Probleme zunimmt, steigt auch der Bedarf an hohem Datendurchsatz und -kapazität. Das weltweit produzierte Datenvolumen verdoppelt sich etwa alle zwei Jahre, was zu einer exponentiellen Datenflut führt. Diese Datenflut stellt eine direkte Herausforderung für Datenbankmanagementsysteme und Dateisysteme dar, die die Grundlage für eine effiziente Datenanalyse und -verwaltung bilden. Diese Systeme verwenden verschiedene Speichergeräte, die traditionell in Primär-, Sekundär- und Tertiärspeicher unterteilt waren. Mit der Einführung der disruptiven Technologie des nichtflüchtigen Arbeitsspeichers (NVRAM) begannen diese Klassen jedoch miteinander zu verschmelzen, was zu heterogenen Speicherarchitekturen führte, bei denen jedes Speichergerät sehr unterschiedliche Leistungsmerkmale aufweist (z. B. Persistenz, Speicherkapazität, Latenz). Eine große Herausforderung ist daher die Ausnutzung der spezifischen Leistungscharakteristika dieser Speichergeräte.
Zu diesem Zweck wird SMASH die Vorteile einer gemeinsamen Speicher-Engine untersuchen, die eine heterogene Speicherlandschaft verwaltet, einschließlich herkömmlicher Speichergeräte und nichtflüchtiger Speichertechnologien. Das Herzstück dieser Speicher-Engine werden B-epsilon-Bäume sein, da diese zur effizienten Nutzung dieser unterschiedlichen Geräte verwendet werden können. Darüber hinaus werden Strategien zur Datenplatzierung und -migration untersucht, um den durch die Übertragung von Daten zwischen verschiedenen Geräten verursachten Overhead zu minimieren. Durch den Wegfall der Notwendigkeit flüchtiger Caches kann die Datenkonsistenz besser sichergestellt werden. Auf der Anwendungsseite wird die Speicher-Engine Key-Value- und Objekt-Schnittstellen bieten, die für eine Vielzahl von Anwendungsfällen genutzt werden können, zum Beispiel für das Hochleistungsrechnen (HPC) und für Datenbankmanagementsysteme. Aufgrund der immer größer werdenden Kluft zwischen der Leistung von Rechen- und Speichergeräten sowie deren stagnierender Zugriffsleistung sind außerdem Techniken zur Datenreduzierung sehr gefragt, um den Bandbreitenbedarf beim Speichern und Abrufen von Daten zu verringern. Wir werden daher Forschungsarbeiten zu Datentransformationen im Allgemeinen und zu den Möglichkeiten externer und beschleunigter Transformationen durchführen. Übliche HPC-Workflows werden durch die Integration von SMASH in das bestehende JULEA-Storage-Framework unterstützt, während Datenbanksysteme die Schnittstelle von SMASH direkt nutzen können, um Daten zu speichern oder abzurufen.

Projekt im Forschungsportal ansehen

Optimizing graph databases focussing on data processing and integration of machine learning for large clinical and biological datasets
Laufzeit: 01.12.2021 bis 30.04.2025

Graphdatenbanken stellen eine effiziente Technik zur Speicherung und zum Zugriff auf hochgradig
verknüpfte Daten unter Verwendung einer Graphstruktur dar, wie z.B. Verbindungen zwischen Messdaten zu Umweltparametern oder klinischen Patientendaten. Die flexible Knotenstruktur macht es einfach, die Ergebnisse verschiedener Untersuchungen hinzuzufügen. Dies reicht von einfachen Blutdruckmessungen über die neuesten CT- und MRT-Scans bis hin zu hochauflösenden Omics-Analysen (z.B. von Tumorbiopsien, Darmmikrobiom-Proben). Allerdings wird das volle Potenzial der Datenverarbeitung und -analyse mittels Graphdatenbanken in biologischen und klinischen Anwendungsfällen noch nicht vollständig ausgeschöpft. Insbesondere die riesige Menge an miteinander verbundenen Daten, die geladen, verarbeitet und analysiert werden müssen, führt zu zu langen Verarbeitungszeiten, um in klinische Arbeitsabläufe integriert werden zu können. Um dieses Ziel zu erreichen sind neuartige Optimierungen von Graph-Operatoren sowie eine geeignete Integration von Analyseansätzen notwendig.
Dieses Projekt zielt darauf ab, die oben genannten Probleme in zwei Richtungen zu lösen: (i) Vorschlag geeigneter Optimierungen für Graphdatenbank-Operationen, auch unter Einsatz moderner Hardware, und(ii) Integration von Algorithmen des maschinellen Lernens für eine einfachere und schnellere Analyse der biologischen Daten. Für die erste Richtung untersuchen wir den Stand der Technik von Graphdatenbanksystemenund deren Speicherung sowie ihr Verarbeitungsmodell. Anschließend schlagen wir Optimierungen für effiziente
operationale und analytische Operatoren vor. Für die zweite Richtung stellen wir uns vor, Algorithmen des maschinellen Lernens näher an ihre Datenlieferanten - die Graphdatenbanken - heranzubringen. Zu diesem Zweck füttern wir in einem ersten Schritt die Algorithmen des maschinellen Lernens direkt mit dem Graphen als Eingabe, indem wir geeignete Graphenoperatoren entwerfen. In einem zweiten Schritt integrieren wir das maschinelle Lernen direkt in die Graphdatenbank, indem wir spezielle Knoten hinzufügen, die das Modell des Algorithmus für maschinelles Lernen repräsentieren.
Die Ergebnisse unseres Projekts sind verbesserte Operatoren, die sowohl moderne Hardware als auch Integrationskonzepte für Algorithmen des maschinellen Lernens nutzen. Unsere allgemein entwickelten Ansätze werden das Verarbeiten und Analysieren riesiger Graphen in einer Fülle von Anwendungsfällen über unseren angestrebten Anwendungsfall der biologischen und klinischen Datenanalyse hinaus vorantreiben.

Projekt im Forschungsportal ansehen

Unveiling the Hidden Gems: Exploring Unexpected Rare Pattern Mining in Data
Laufzeit: 20.08.2018 bis 31.03.2025

Pattern mining is the task of finding statistically relevant patterns in data that can provide valuable insights and knowledge. However, most existing pattern mining methods use a single threshold to determine the frequency of the patterns, which may not reflect the diversity and specificity of the data items. This may lead to two problems: (1) if the threshold is too low, it may generate too many patterns, many of which are redundant or uninteresting; (2) if the threshold is too high, it may miss some patterns, especially the rare ones that occur infrequently but have high significance or utility.

The rare pattern problem is a challenging and important issue in pattern mining, as rare patterns may represent unknown or hidden knowledge that can inform and inspire various domains and applications, such as medical diagnosis, fraud detection, or anomaly detection. Several studies have attempted to address this problem by mining frequent patterns, including rare ones, using different minimum item support thresholds (MIS) for each item. This approach can generate a complete set of frequent patterns without losing any significant ones. However, this approach is also very costly and inefficient, as it may still produce many redundant or useless patterns that consume a lot of time and memory.

The primary objective of this project is to enhance an efficient and effective method for mining rare patterns, without generating the complete set of frequent patterns. The method is based on frequent closed itemset mining, which is a technique that can reduce the number of patterns by eliminating those that are included in other patterns with the same frequency. The method also aims to avoid generating a large number of rules, and instead, to discover only those rules that are rare and generate more actionable insights. Therefore, the method can mine only the most interesting patterns, which are those that are rare, closed, and have high utility or significance. The method can be applied to various data sets and domains, such as health data, where rare patterns may represent rare diseases, hidden connections, or complex interactions. The project aims to evaluate the performance and quality of the method, and to compare it with other existing methods for rare pattern mining. The project also aims to demonstrate the usefulness and impact of the method, and to show how it can discover novel and intriguing patterns that can drive meaningful change.

Projekt im Forschungsportal ansehen

Optimizing graph databases focussing on data processing and integration of machine learning for large clinical and biological datasets
Laufzeit: 01.12.2021 bis 30.11.2024

Graphdatenbanken stellen eine effiziente Technik zur Speicherung und zum Zugriff auf hochgradig
verknüpfte Daten unter Verwendung einer Graphstruktur dar, wie z.B. Verbindungen zwischen Messdatenzu Umweltparametern oder klinischen Patientendaten. Die flexible Knotenstruktur macht es einfach, dieErgebnisse verschiedener Untersuchungen hinzuzufügen. Dies reicht von einfachen Blutdruckmessungenüber die neuesten CT- und MRT-Scans bis hin zu hochauflösenden Omics-Analysen (z.B. von Tumorbiopsien,Darmmikrobiom-Proben). Allerdings wird das volle Potenzial der Datenverarbeitung und -analyse mittelsGraphdatenbanken in biologischen und klinischen Anwendungsfällen noch nicht vollständig ausgeschöpft.Insbesondere die riesige Menge an miteinander verbundenen Daten, die geladen, verarbeitet und analysiertwerden müssen, führt zu zu langen Verarbeitungszeiten, um in klinische Arbeitsabläufe integriert werdenzu können. Um dieses Ziel zu erreichen sind neuartige Optimierungen von Graph-Operatoren sowie eine
geeignete Integration von Analyseansätzen notwendig.
Dieses Projekt zielt darauf ab, die oben genannten Probleme in zwei Richtungen zu lösen: (i) Vorschlag
geeigneter Optimierungen für Graphdatenbank-Operationen, auch unter Einsatz moderner Hardware, und(ii) Integration von Algorithmen des maschinellen Lernens für eine einfachere und schnellere Analyse der biologischenDaten. Für die erste Richtung untersuchen wir den Stand der Technik von Graphdatenbanksystemen
und deren Speicherung sowie ihr Verarbeitungsmodell. Anschließend schlagen wir Optimierungen für effizienteoperationale und analytische Operatoren vor. Für die zweite Richtung stellen wir uns vor, Algorithmen desmaschinellen Lernens näher an ihre Datenlieferanten - die Graphdatenbanken - heranzubringen. Zu diesemZweck füttern wir in einem ersten Schritt die Algorithmen des maschinellen Lernens direkt mit dem Graphenals Eingabe, indem wir geeignete Graphenoperatoren entwerfen. In einem zweiten Schritt integrieren wir dasmaschinelle Lernen direkt in die Graphdatenbank, indem wir spezielle Knoten hinzufügen, die das Modell des Algorithmus für maschinelles Lernen repräsentieren. Die Ergebnisse unseres Projekts sind verbesserte Operatoren, die sowohl moderne Hardware als auch Integrationskonzepte für Algorithmen des maschinellen Lernens nutzen. Unsere allgemein entwickeltenAnsätze werden das Verarbeiten und Analysieren riesiger Graphen in einer Fülle von Anwendungsfällen überunseren angestrebten Anwendungsfall der biologischen und klinischen Datenanalyse hinaus vorantreiben.

Projekt im Forschungsportal ansehen

Abgeschlossene Projekte

ADAMANT-II: Adaptive Data Management in Evolving Heterogeneous Hardware/Software Systems
Laufzeit: 01.01.2021 bis 31.12.2023

Heterogene Systemarchitekturen bestehend aus CPUs, GPUs und FPGAs bieten vielfältige Optimierungsmöglichkeiten im Vergleich zu rein CPU-basierten Systemen. Zur vollständigen Ausnutzung dieses Optimierungspotenzials reicht es jedoch nicht, bestehende Softwarekonzepte unverändert auf nicht-von-Neumann-Architekturen wie beispielsweise FPGAs zu übertragen. Vielmehr erfordern die zusätzlichen Verarbeitungsmöglichkeiten dieser Architekturen den Entwurf neuartiger Verarbeitungskonzepte. Dies ist bereits in der Planung der Anfrageverarbeitung zu berücksichtigen. In der ersten Projektphase entwickelten wir hierfür bereits ein erstes Konzept, welches die gerätespezifischen Merkmale in unserer Plug’n’Play Architektur berücksichtigt. Allerdings sehen wir die Notwendigkeit zu dessen Weiterentwicklung, um eine noch bessere Ausnutzung der spezifischen Eigenschaften der Hardwarearchitekturen zu erreichen. Für die zweite Projektphase stellen wir daher die Hypothese auf, dass bekannte Verfahren zur Abbildung von Anfragen auf der Ebene einzelner Operatoren nicht ausreichen sind, um die erweiterten Verarbeitungsmöglichkeiten heterogener Systemarchitekturen auszunutzen.
Unser Ziel ist daher die Erforschung neuartiger Verarbeitungskonzepte und Verfahren zur Abbildung von Anfragen für heterogene Systeme, welche von der üblicherweise verwendeten Granularität auf Ebene einzelner Operatoren abweichen. Wir werden Verarbeitungseinheiten entwickeln, die eine größere Funktionalität als einzelne Operatoren bereitstellen und sich über mehrere Geräte hinweg erstrecken. Diese Verarbeitungseinheiten sind in sich heterogen und kombinieren die spezifischen Eigenschaften einzelner Architekturen. Im Ergebnis ermöglicht unsere heterogene Systemarchitektur das Bereitstellen von Datenbankoperationen und Funktionen, die in klassischen Datenbanksystemen nicht verfügbar oder nicht effizient realisierbar sind.
Zu Demonstrationszwecken haben wir drei Anwendungsfälle identifiziert, welche von heterogenen Systemarchitekturen stark profitieren können: Verarbeitung von Datenströmen mit hohem Aufkommen, approximative Anfrageverarbeitung und dynamische Multianfrageverarbeitung. Hochvolumige Datenströme erfordern eine Hardwarearchitektur, die eine Verarbeitung der Daten ohne vorherige Zwischenspeicherung ermöglicht. Dafür stellen FPGAs eine vielversprechende Plattform durch ihr datenstrombasiertes Verarbeitungsprinzip dar. Darüber hinaus eignen sich sowohl FPGAs als auch GPUs für approximierende Anfragenverarbeitungen, da sie arithmetische Operationen mit reduzierter Genauigkeit und die Realisierung von approximativen, hardwarebeschleunigten Samplingtechniken ermöglichen. Die dynamische Multianfrageverarbeitung ist aus Systemsicht sehr anspruchsvoll, da variable Systemlasten die Effizienz zuvor aufgestellter Anfragepläne reduzieren können. Hier ermöglichen die zahlreichen Parallelitätsebenen in heterogenen Systemen eine bessere Verteilung der Systemlasten.

Projekt im Forschungsportal ansehen

A ranking-based automated approach for supporting Literature Review research methodologies.
Laufzeit: 01.07.2020 bis 30.06.2023

Literature reviews in general are methodologies of research which aim to gather and evaluate available evidence regarding a specific research topic. A common scientific method for performing this literature reviews is Systematic Literature Review (SLR). Another method is called Systematic mapping study (SMS). Their process if conducted manually can be very time and effort consuming. Therefore, multiple tools and approaches were proposed in order to facilitate several stages of this process. In this PhD thesis, we aim to evaluate the quality of these literature reviews studies using combined aspects. We measure the quality of the study`s included primary selected papers by combining social and academic Influence in a recursive way. Additionally, we will apply a machine learning ranking model based on a similarity function that is built upon bibliometrics and Altmetrics quality criteria and full text relevancy. In order to achieve the proposed approach, we begin with investigating the current state of the art in different directions, mainly the most effective and commonly used quality measures of publications, Altmetrics, Bibliometrics and machine learning text related techniques. A method for assessing the quality of these literature reviews research methods, would definitely be useful for the scientific research community in general, as It would save valuable time and reduce tremendous required effort.

Projekt im Forschungsportal ansehen

Digitales Programmieren im Team - Adaptive Unterstützung für kollaboratives Lernen
Laufzeit: 01.03.2020 bis 28.02.2023

Das kollaborative Programmieren ist Kernbestandteil des beruflichen Alltags in der Informatik. Diese auf einer technischen und sozialen Ebene komplexen Vorgänge werden im Informatikstudium oftmals abstrakt behandelt und spielen in Fachkonzepten zum Programmierenlernen eine untergeordnete Rolle. Im Rahmen von Gruppenarbeiten müssen sich die Lernenden organisieren, koordinieren und ihre Lernprozesse regulieren - kognitiv anspruchsvolle Tätigkeiten. Um das Potential kollaborativer Lernformen für das Erlernen von Programmiersprachen und die Förderung sozialer Kompetenzen ausschöpfen zu können, müssen die Lernenden bei Bedarf didaktische Unterstützung erhalten, sowohl vor dem als auch während des Lernprozesses. Im Teilprojekt DiP-iT-OVGU werden wir - unterstützt durch die Projektpartner - auf der Basis empirischer Studien ein digitales Fachkonzept zum kollaborativen Programmierenlernen entwickeln und evaluieren, welches diesbezügliche (medien-)didaktische Ansätze enthält. Dabei zielen wir auf die Ermöglichung des Transfers an andere Hochschulen. Auf informationstechnischer Ebene wird hierfür ein Prozessmodell entwickelt, das die Nachnutzbarkeit von Forschungsdaten und die Übertragbarkeit von Datenmodellen (z.B. zur adaptiven didaktischen Unterstützung) in andere Lehrveranstaltungen bzw. Lehr-Lernsysteme ermöglicht. Das Teilprojekt ordnet sich in das Gesamtprojekt mit folgenden Zielstellungen ein:

  • Analyse und Systematisierung von Einstellungen und Vorerfahrungen bei den Akteuren,
  • Entwicklung konzeptioneller, mediendidaktischer Kriterien für die Einbindung kollaborativen Programmierenlernens in Lehrveranstaltungen,
  • Entwicklung geeigneter Lehr-Lern-Szenarien und Erstellung eines diesbezüglichen digitalen Fachkonzepts,
  • empirische Fundierung durch formative und summative Evaluation,
  • Untersuchung der Effektivität von Formen der instruktionalen Anleitung angelehnt an die Bedarfe der Lernenden,
  • Unterstützung des Transfers der Erkenntnisse, inhaltlich und technisch.

Projekt im Forschungsportal ansehen

DiP-iT:Digitales Programmieren im Team
Laufzeit: 01.02.2020 bis 31.01.2023

Das kollaborative Programmieren ist Kernbestandteil des beruflichen Alltags in der Informatik. Diese auf einer technischen und sozialen Ebene komplexen Vorgänge werden im Informatikstudium oftmals abstrakt behandelt und spielen in Fachkonzepten zum Programmierenlernen eine untergeordnete Rolle. Im Rahmen von Gruppenarbeiten müssen sich die Lernenden organisieren, koordinieren und ihre Lernprozesse regulieren - kognitiv anspruchsvolle Tätigkeiten. Um das Potential kollaborativer Lernformen für das Erlernen von Programmiersprachen und die Förderung sozialer Kompetenzen ausschöpfen zu können, müssen die Lernenden bei Bedarf didaktische Unterstützung erhalten, sowohl vor dem als auch während des Lernprozesses. Im Teilprojekt DiP-iT-OVGU werden wir - unterstützt durch die Projektpartner - auf der Basis empirischer Studien ein digitales Fachkonzept zum kollaborativen Programmierenlernen entwickeln und evaluieren, welches diesbezügliche (medien-)didaktische Ansätze enthält. Dabei zielen wir auf die Ermöglichung des Transfers an andere Hochschulen. Auf informationstechnischer Ebene wird hierfür ein Prozessmodell entwickelt, das die Nachnutzbarkeit von Forschungsdaten und die Übertragbarkeit von Datenmodellen (z.B. zur adaptiven didaktischen Unterstützung) in andere Lehrveranstaltungen bzw. Lehr-Lernsysteme ermöglicht. Das Teilprojekt ordnet sich in das Gesamtprojekt mit folgenden Zielstellungen ein:

  • Analyse und Systematisierung von Einstellungen und Vorerfahrungen bei den Akteuren,
  • Entwicklung konzeptioneller, mediendidaktischer Kriterien für die Einbindung kollaborativen Programmierenlernens in Lehrveranstaltungen,
  • Entwicklung geeigneter Lehr-Lern-Szenarien und Erstellung eines diesbezüglichen digitalen Fachkonzepts,
  • empirische Fundierung durch formative und summative Evaluation,
  • Untersuchung der Effektivität von Formen der instruktionalen Anleitung angelehnt an die Bedarfe der Lernenden,
  • Unterstützung des Transfers der Erkenntnisse, inhaltlich und technisch.

Projekt im Forschungsportal ansehen

Query Acceleration Techniques in Co-Processor-Accelerated Main-memory Database Systems
Laufzeit: 31.08.2019 bis 31.03.2022

Das Projekt adressiert den aktuellen Schwerpunkt von Analysen in Hauptspeicherdatenbanken auf moderner Hardware: Heterogenität der Prozessoren und deren Einbindung in die Anfrageverarbeitung. Aufgrund der Vielzahl von Optimierungen und Varianten von Algorithmen und unbegrenzte Anzahl an Anwendungsfällen, ist das Erstellen des perfekten Anfrageplanes nahezu unmöglich.
Ziel der Habilitation ist es, (1) einen umfassenden Katalog von vielversprechenden Algorithmenvarianten aufzustellen, (2) eine optimale Auswahl der Varianten im Zuge der übergeordneten Anfrageoptimierung zu erlangen, (3) als auch Lastverteilung im Co-Prozessorbeschleunigten System zu erreichen.

  1. Der Variantenkatalog umfasst als weitere Dimensionen sowohl die Ausführung auf den spaltenorientierten Daten, als auch unter Nutzung von speziellen Indexstrukturen und beinhaltet unterschiedliche Ergebnisrepräsentationen. Aus allen möglichen Dimension wird dann eine Abstraktionsschicht entwickelt, sodass ein Algorithmus unabhängig von dessen Optimierungen definiert werden kann. Dadurch soll jede Variante effizient, mit wenig redundantem Code generiert und ausgeführt werden können.
  2. Aufgrund des enormen Variantenraumes bestehend aus den Dimensionen der Varianten inklusive dem Einfluss der ausführenden Prozessoren ist die Wahl einer auszuführenden Variante nicht trivial. Ziel ist es hier lern-basierte Methoden in Hinblick auf die Eignung zur Algorithmenauswahl gegenüber zu stellen, um valide Entscheidungen zu treffen. Die zu treffenden Entscheidungen sollen des Weiteren auch ausgeweitet werden auf das Erstellen von Indexen als auch der Datenverteilung in Ziel (3).
  3. Die Lastenverteilung in Co-Prozessorbeschleunigten Systemen wird durch den Grad der Parallelisierung beeinflusst. Dieser Grad teilt sich in mehrere Dimensionen, da Datenbankoperationen in kleinere Funktionseinheiten (sog. Primitive) aufteilen können. Diese Primitive können entweder auf dem ganzen Datenbestand laufen oder partitioniert ausgeführt werden. All diese Optimierungspotentiale (unterschiedliche Granularitätsstufen und Partitionierungsgrößen) müssen analysiert und optimal gewählt werden, um unter der gegebenen und zukünftigen Anfragelast eine angemessene Performanz zu ermöglichen. Ziel ist es, ein Modell lernen zu lassen, um optimale Verteilungen und optimierte Pläne zu erstellen. Wichtig ist hierbei, dass das Modell auch Rückschlüsse auf dessen Entscheidungen zulässt, um eine Generalisierbarkeit zu erreichen.

Projekt im Forschungsportal ansehen

EXtracting Product Lines from vAriaNTs (EXPLANT II)
Laufzeit: 01.09.2019 bis 28.02.2022

Eine Software-Produktlinie (SPL) ermöglicht die systematische Verwaltung einer Menge von wiederverwendbaren Softwareartefakten und damit die effiziente Generierung verschiedener Varianten einer Software. In der Praxis erstellen Entwickler jedoch häufig Softwarevarianten ad-hoc, indem sie Softwareartefakte kopieren und an neue Anforderungen anpassen (Clone-and-Own). Die hierbei fehlende Systematik und Automatisierung macht die Wartung und Weiterentwicklung der Varianten oft zeitaufwendig und fehleranfällig. Wir schlagen daher eine schrittweise Migration von geklonten Softwarevarianten in eine kompositionale (d.h. modular aufgebaute) SPL vor.
In der ersten Projektphase konnten wir bereits beachtliche Ergebnisse bei der Varianten-erhaltenden Transformation und den entsprechenden Analysen auf Modell- und Codeebene erzielen. In der zweiten Phase wollen wir nun auf den daraus gewonnenen Erkenntnisse aufbauen. Dies sind im Besonderen: (1) Eine nur auf Code-Klon Detektion basierende automatisierte Migration erzeugt keine kohärenten Softwareartefakte mit einer bestimmten Funktionalität. (2) Einige potentielle Kooperationspartner hatten Bedenken ihre Systeme zu migrieren, da sie die Einführung neuer Fehler befürchten. (3) Annotative SPL scheinen weniger fehleranfällig und somit robuster gegenüber Änderungen zu sein, als bisher angenommen.
Aufgrund der Probleme mit industriellen Partnern (2) kamen wir zu dem Schluss, dass weitere Forschungen, insbesondere zur Qualitätssicherung von migrierten SPL, Überführungskosten und Eigenschaften von Softwareartefakten notwendig sind. Wir wollen daher untersuchen, welche Kostenfaktoren bei der Überführung und beim Einsatz von SPL eine Rolle spielen und wie stark deren Einfluss jeweils ist. Weiterhin planen wir Qualitätsmetriken für migrierte SPL aufzuzeigen. In der ersten Projektphase haben wir bereits einen teil-automatisierten Migrationsprozess vorgeschlagen (1), welchen wir nun weiter ausbauen und neue Analysen integrieren wollen. Dabei wollen wir vor Allem untersuchen, ob sich nützliche Informationen, insbesondere über die Intention der Entwickler, aus weiteren Quellen, als dem Code beziehen lassen. Vielversprechende Ansätze sind hier die Analyse von Versionsverwaltungssystemen und die Analyse von existierenden Verhaltens- und Architektur-Modellen eines Systems. Des Weiteren haben wir vor, zur Steigerung des Automatisierungsgrads weitere Refactorings, wie z.B. "Move Method" einzusetzen. Um die Struktur und damit auch die Wartbarkeit der resultierenden Modularisierung zu verbessern, planen wir außerdem unseren Migrationsprozess auf Multi-Software-Produktlinien zu erweitern. Dadurch ließen sich einzelne Funktionalitäten eines Systems besser auftrennen. Ebenfalls wollen wir untersuchen, welche Granularität für migrierte Softwareartefakte am besten geeignet ist und ob annotative Verfahren (3) für migrierte SPL Vorteile gegenüber kompositionalen Verfahren bringen können.

Projekt im Forschungsportal ansehen

MetaProteomeAnalyzer Service (MetaProtServ)
Laufzeit: 01.12.2016 bis 31.12.2021

Die Metaproteomik zielt auf die Erforschung zellulärer Funktionen komlexer Lebensgemeinschaften und ergänzt die Metagenomik and Metatranscriptomik als häufig eingesetzte Werkzeuge in der mikrobiellen Ökologie (z.B. humanes Darm-Mikrobiome, Biogasanlagen). Bioinformatische Werkzeuge, die für die Proteomik von Reinkulturen entwickelt wurden, können nicht zufriedenstellend Ergebnis benutzt werden. So führen Datenbanksuchen für die Proteinidentifizierung mit Metagenomsequenzen zu einer hohen Zahl redundanten Hits in den Suchergebnissen in Bezug auf Taxonomy und Funktion identifizierten Proteine. Für eine bessere Auswertung von Metaproteomdaten wurde deshalb MetaProteomAnalyzer (MPA) Software entwickelt. Im Rahmen von MetaProtServ soll das benutzerfreundliche Programm mit einer graphischen Oberfläche als Webservice verfügbar gemacht werden, um mehr Wissenschaftler von den Vorteilen der Metaproteomik zu überzeugen. Gezieltes Training von Anwendern und ein individueller Support sollen die Zugänglichkeit dieser Software in der wissenschaftlichen Gemeinschaft erleichtern. Die Funktionalität und die Wartungsfreundlichkeit werden für den zukünftigen Webservice sowie für eine eigenständige Version parallel basierend auf einem gemeinsamen Code und einer gemeinsamen Struktur weiterentwickelt. Die Software wird beispielsweise um Schnittstellen für den Import und Export von Metaproteomdaten (mzIdentML) erweitert. Der Webservice wird zukünftig vom de.NBI-Zentrum Bielefeld-Gießen (Center for Microbial Bioinformatics) gehostet, mit dem das de.NBI-Partnerprojekt MetaProtServ assoziiert ist.

Projekt im Forschungsportal ansehen

COOPeR: Cross-device OLTP/OLAP PRocessing
Laufzeit: 01.09.2016 bis 30.06.2021

Heutzutage stehen Datenbanksysteme vor zwei Herausforderungen. Auf der einen Seite müssen Datenbanksysteme Online-Transaction-Processing (OLTP) und Online-Analytical-Processing (OLAP) kombinieren, um Echtzeitanalysen von Geschäftsprozessen zu ermöglichen. Die Echtzeitanalysen von Geschäftsprozessen ist notwendig, um die Qualität der erstellten Berichte und Analysen zu verbessern, weil aktuelle Daten für die Analyse verwendet werden an Stelle von historischen Daten,die in traditionellen OLAP-Systemen verarbeitet werden. Auf der anderen Seite, werden Computersysteme zunehmend heterogener, um bessere Hardware-Leistung bereitzustellen. Die Architektur wechselt hierbei von Computersystemen mit Single-Core- CPUs zu Multi-Core-CPUs unterstützt von Ko-Prozessoren. Datenbanksysteme müssen beide Trends berücksichtigen, um die Qualität der Systeme zu verbessern, um die Leistung zu erhöhen, und um sicherzustellen, dass Datenbanksysteme künftigen Anforderungen (z.B. komplexere Anfragen oder erhöhte Datenvolumen) genügen.Leider konzentrieren sich aktuelle Forschungsansätze, jeweils nur auf eine der beiden Herausforderungen, entweder auf die Kombination von OLTP und OLAP Workloads in traditionellen CPU-basierte Systeme oder auf Ko-Prozessor-Beschleunigung für einen einzigen Workload-Typ. Daher gibt es keinen ganzheitlichen Ansatz der beide Herausforderungen berücksichtigt. In diesem Projekt wollen wir beide Herausforderungen von Datenbanksystemen berücksichtigen, um eine effiziente Verarbeitung von kombinierten OLTP/ OLAP-Workloads in hybriden CPU/Ko-Prozessor-Systemen zu ermöglichen. Dies ist notwendig, um Echtzeit-Business-Intelligence zu realisieren. Die größte Herausforderung ist hierbei die ACID-Eigenschaften für OLTP und kombinierten OLTP/OLAP-Workloads in hybriden Systemen zu gewährleisten, und gleichzeitig eine effiziente Verarbeitung der kombinierten Workloads zu ermöglichen.

Projekt im Forschungsportal ansehen

Recommending Cloned Features for Adopting Systematic Software Reuse
Laufzeit: 01.05.2018 bis 30.04.2021

Organizations heavily rely on forking (or cloning) to implement customer-specific variants of a system. While this approach can have several disadvantages, organizations fear to extract reusable features later on, due to the corresponding efforts and risks. A particularly challenging, yet poorly supported, task is to decide what features to extract. To tackle this problem, we aim to develop an analysis system that proposes suitable features based on automated analyses of the cloned legacy systems. To this end, we are concerned with a several closely related research areas: Cost modeling for software product lines; empirical studies on system evolution, processes, and human factors; as well as concepts to derive reusable features from clones based on, for example, feature location and code clone detection.

Projekt im Forschungsportal ansehen

Adaptive Data Management in Evolving Heterogeneous Hardware/Software Systems (ADAMANT)
Laufzeit: 01.10.2017 bis 31.12.2020

Die Entwicklung von Datenbanksystemen steht vor großen Herausforderungen: Zum einen wandeln sich die Anwendungsszenarien von reinen relationalen zu graph- oder strombasierten Analysen. Zum anderen wird die eingesetzte Hardware heterogener, da neben gewöhnlichen CPUs auch spezialisierte, hoch performante Co-Prozessoren wie z.B. Graphics Processing Unit oder Field Programmable Gate Arrays (FPGAs) eingesetzt werden. Es konnte gezeigt werden, dass durch Operatoren, die für einen speziellen Co-Prozessor optimiert wurden, ein Performancegewinn erreicht wird. Jedoch sind die meisten Ansätze zur Verarbeitung auf einem einzigen Prozessortyp limitiert und betrachten nicht das Zusammenspiel aller (Co-)Prozessoren. Dadurch bleibt Optimierungs- und Parallelisierungspotential ungenutzt. Darüber hinaus bieten Betrachtungen eines einzelnen Operators auf einem einzigen (Co-)Prozessor wenige Möglichkeiten zur Verallgemeinerung für neue Anwendungsgebiete oder Co-Prozessortypen. Im Rahmen dieses Projektes entwerfen wir Konzepte zur Integration von unterschiedlichen Operatoren und heterogenen (Hardware-)Co-Prozessortypen für adaptive Datenbanksysteme. Wir entwickeln Optimierungsstrategien, die die individuellen Eigenschaften der Co-Prozessortypen und die diesen Systemen inhärente Parallelität ausnutzen. Dabei betrachten wir relationale und graphbasierte Analysen, sodass die hergeleiteten Konzepte nicht auf ein bestimmtes Anwendungsszenario beschränkt sind. Wir werden Schnittstellen und Konzepte zur Abstraktion der Operatoren und Co-Prozessortypen definieren. Des Weiteren müssen die Eigenschaften von Operatoren und Co-Prozessortypen allen Systemebenen zur Verfügung stehen, sodass die Softwareebene besondere Charakteristika der (Co-)Prozessortypen und die Hardwareebene unterschiedliche Eigenschaften von Operatoren und Daten berücksichtigt. Die Verfügbarkeit dieser Charakteristika ist von hoher Relevanz für die globale Anfrageoptimierung, um eine passende Ausführungsmethode zu wählen. Es ist außerdem nötig, den Entwurfsraum der Anfrageverarbeitung auf heterogenen Hardwarearchitekturen zu analysieren und dabei auf Parallelität in der Funktion, den Daten, und zwischen (Co-)Prozessoren zu achten. Aufgrund der dadurch hervorgerufenen Komplexität des Entwurfsraums verfolgen wir einen verteilten Ansatz, in dem die Optimierung soweit möglich an die niedrigsten Ebenen delegiert wird, da diese Informationen über die spezifischen Charakteristika haben. So werden diese effizienter ausgenutzt. Um eine gegenseitige Beeinflussung der Optimierungen zweier Ebenen zu vermeiden, beachten wir auch Optimierungsstrategien zwischen Ebenen. Dabei werden wir auch lernbasierte Methoden einsetzen, um durch eine Evaluierung von Optimierungsentscheidungen zur Laufzeit künftige Entscheidungen zu verbessern. Auch sind diese Methoden am besten geeignet Charakteristika zu erfassen, die zur Entwurfszeit nicht berücksichtigt wurden, wie es häufig mit der Laufzeitrekonfiguration von FPGAs erfolgt.

Projekt im Forschungsportal ansehen

Efficient and Effective Entity Resolution Under Cloud-Scale Data
Laufzeit: 01.07.2014 bis 30.04.2020

There might exist several different descriptions for one real-world entity. The differences may result from typographical errors, abbreviations, data formatting, etc. However, the different descriptions may lower data quality and  lead to misunderstanding. Therefore, it is necessary to be able to resolve and clarify such different descriptions. Entity Resolution (ER) is a process to identify records that refer to the same real-world entity. It is also known under several other names. If the records to be identified are all located within a single source, it is called de-duplication. Otherwise,  in the field of computer science it is also typically referred to data matching, record linkage, duplicate detection, reference reconciliation, object identification. In the database domain, ER is synonymous with similarity join. Today, ER plays a vital role in diverse areas, not only in the traditional applications of census, health data or national security, but also in the network applications of business mailing lists, online shopping, web searches, etc. It is also an indispensable step in data cleaning, data integration and data warehousing. The use of computer techniques to perform ER dates back to the middle of the last century. Since then, researchers have developed many techniques and algorithms for ER due to its extensive applications. In its early days, there are two general goals: efficiency and effectiveness, which means how fast and how accurately an ER task can be solved. In recent years, the rise of the web has led to the extension of techniques and algorithms for ER. Such web data (also known as big data) is often semi-structured, comes from diverse domains and exists on a very large scale. These three properties make big data qualitatively different from traditional data, which brings new challenges to ER that require new techniques or algorithms as solutions. To be specific, specialized similarity measures are required for semi-structured data; cross-domain techniques are needed to handle data from diverse domains; parallel techniques are needed to make algorithms not only efficient and effective, but also scalable, so as to be able to deal with the large scale of the data. This project focuses on the last point: parallelize the process of entity resoution. The specific research direction is to explore several big data processing frameworks to know their advantages and disadvantages on performing ER.

Projekt im Forschungsportal ansehen

Software Product Line Feature Extraction from Natural Language Documents using Machine Learning Techniques
Laufzeit: 11.05.2016 bis 29.02.2020

Feature model construction from the requirements or textual descriptions of products can be often tedious and ineffective. In this project, through automatically learning natural language documents of products, cluster tight-related requirements into features in the phase of domain analysis based on machine learning techniques. This method can assist the developer by suggesting possible features, and improve the efficiency and accuracy of feature modeling to a certain extent.

This research will focus on feature extraction from requirements or textual descriptions of products in domain analysis. Extract the descriptors from requirements or textual descriptions of products. Then, descriptors are transformed into vectors and form a word vector space. Based on clustering algorithm, a set of descriptors are clustered into features. Their relationships will be inferred. Design the simulation experiment of feature extraction from natural language documents of products to prove that it can handle feature-extracting in terms of machine learning techniques.

Projekt im Forschungsportal ansehen

Legal Horizon Scanning
Laufzeit: 04.04.2017 bis 30.11.2019

Every company needs to be compliant with national and international laws and regulations. Unfortunately, staying complied is a challenging tasks based on the volume and velocity of laws and regulations. Furthermore, laws are often incomplete or inconclusive, whereby also court judgments need to be considered for compliance. Hence, companies in different sectors, e.g. energy, transport, or finance, are spending millions of dollars every year to ensure compliance each year. In this project, we want to automate the process of identifying and analyzing the impact of (changing) laws, regulations, and court judgments using a combination of Information Retrieval, Data Mining and Scalable Data Management techniques. Based on the automated identification and impact analysis, not only the costs for compliance can be reduced, but also the quality can be increased.

Projekt im Forschungsportal ansehen

GPU-accelerated Join-Order Optimization
Laufzeit: 01.10.2016 bis 09.11.2019

Different join orders can lead to a variation of execution times by several orders of magnitude, which makes join-order optimization to one of the most critical optimizations within DBMSs. At the same time, join-order optimization is an NP-hard problem, which makes the computation of an optimal join-order highly compute-intensive. Because current hardware architectures use highly specialized and parallel processors, the sequential algorithms for join-order optimization proposed in the past cannot fully utilize  the computational power of current hardware architectures. Although existing approaches for join-order optimization such as dynamic programming benefit from parallel execution, there are no approaches for join-order optimization on highly parallel co-processors such as GPUs. 
In this project, we are building a GPU-accelerated  join-order optimizer by adapting existing join-order optimization approaches. Here, we are interested in the effects of GPUs on join-order optimization itself as well as the effects for query processing. For GPU-accelerated DBMSs, such as CoGaDB, using GPUs for query processing, we need to identify efficient scheduling strategies for query processing and query optimization tasks such that the GPU-accelerated optimization does not 
slow down query processing on GPUs.

Projekt im Forschungsportal ansehen

(Semi)-Automatic Approach to Support Literature Analysis for Software Engineers
Laufzeit: 01.11.2017 bis 31.10.2019

Researchers perform literature reviews to synthesize existing evidence regarding a research topic. While being important means to condense knowledge, conducting a literature analysis, particularly, systematic literature review, requires a large amount of time and effort. Consequently, researchers are considering semi-automatic approaches to facilitate different stages of the review process. Surveys have shown that two of the most time consuming tasks within the literature review process are: to select primary studies and to assess their quality. To assure quality and reliability of the findings from a literature study, the quality of included primary studies must be evaluated. Despite being critical stages, these still lack the support of semi-automatic tools and hence, mostly performed manually. In this PhD thesis, we aim to address this gap in the current state of research and develop techniques that support the selection and assessment of primary studies for literature analyses. For the assessment of studies, we begin with exploring the information available from the digital libraries most commonly used by software engineering researchers, such as, the ACM Digital Library, IEEE Xplore, Science Direct, Springer Link, Web of Science. The information regarding authors, citation counts and publication venues are particularly important as these can provide an initial insight about the studies. Hence, a tool that captures such bibliographic information from the digital libraries and score the studies based on defined quality metrics, would certainly be beneficial to accelerate the process. However, for accurate assessment, the approach could be further extended to an in-depth full text investigation. We believe, developing such a strategy would indeed be useful for researchers conducting literature analyses, particularly software engineers, or any other research domain.

Projekt im Forschungsportal ansehen

Graph-Based Analysis of Highly-Configurable Systems
Laufzeit: 01.11.2015 bis 01.11.2018

Todays's software systems are getting more complex every day and contain an increasing number of configuration options to customize their behavior. Developers of these highly-configurable systems face the challenge of finding faults within the variable source code and maintaining it without introducing new ones.

In order to understand variable source code of even medium-sized systems developers have to rely on multiple analysis techniques. However, current analysis techniques often do not scale well with the
number of configuration options or utilize heuristics which lead to results that are less reliable.

We propose an alternative approach for analyzing highly-configurable systems based on graph theory.

Both variability models, which describe a system's configuration options and their interdependencies, and variable source code can be represented by graph-like data structures.

Therefore, we want to introduce novel analysis techniques based on well-known graph algorithms and evaluate them regrading their result quality and performance during runtime.

Projekt im Forschungsportal ansehen

Secure Data Outsourcing to Untrusted Clouds
Laufzeit: 01.10.2014 bis 30.09.2018

Cloud storage solutions are being offered by many big vendors like Google, Amazon & IBM etc. The need of Cloud Storage has been driven by the generation of Big Data in almost every corporation. The biggest hurdle in outsourcing data to Cloud Data vendors is the Security Concern of the data owners. These security concerns have become the stumbling block in large scale adoption of Third Party Cloud Databases. The focus of this PhD project is to give a comprehensive framework for the Security of Outsourced Data to Untrusted Clouds. This framework includes Encrypted Storage in Cloud Databases, Secure Data Access, Privacy of Data Access & Authenticity of Stored Data in the Cloud. This security framework will be based on Hadoop based open source projects.

Projekt im Forschungsportal ansehen

On the Impact of Hardware on Relational Query Processing
Laufzeit: 01.09.2013 bis 31.08.2018

Satisfying the performance needs of tomorrow typically implies using modern processor capabilities (such as single instruction, multiple data) and co-processors (such as graphics processing units) to accelerate database operations. Algorithms are typically hand-tuned to the underlying (co-)processors. This solution is error-prone, introduces high implementation and maintenance cost and is not portable to other (co-)processors. To this end, we argue for a combination of database research with modern software-engineering approaches, such as feature-oriented software development (FOSD). Thus, the goal of this project is to generate optimized database algorithms tailored to the underlying (co-)processors from a common code base. With this, we maximize performance while minimizing implementation and maintenance effort in databases on new hardware. Project milestones: 

  • Creating a feature model: Arising from heterogeneous processor capabilities, promising capabilities have to be identified and structured to develop a comprehensive feature model. This includes fine-grained features that exploit the processor capabilities of each device.
  • Annotative vs. compositional FOSD approaches: Both approaches have known benefits and drawbacks. To have a suitable mechanism to construct hardware-tailored database algorithms using FOSD, we have to evaluate which of these two approaches is the best for our scenario.
  • Mapping features to code: Arising from the feature model, possible code snippets to implement a feature have to be identified.
  • Performance evaluation: To validate our solution and derive rules for processor allocation and algorithm selection, we have to perform an evaluation of our algorithms.

Projekt im Forschungsportal ansehen

Model-Based Refinement of Product Lines
Laufzeit: 01.04.2015 bis 31.03.2018

Software product lines are families of related software systems that are developed by taking variability into account during the complete development process. In model-based refinement methods (e.g., ASM, Event-B, Z, VDM), systems are developed by stepwise refinement of an abstract, formal model.

In this project, we develop concepts to combine model-based refinement methods and software product lines. On the one hand, this combination aims to improve the cost-effectiveness of applying formal methods by taking advantage of the high degree of reuse provided by software product lines. On the other hand, it helps to handle the complexity of product lines by providing means to detect defects on a high level of abstraction, early in the development process.

Projekt im Forschungsportal ansehen

EXtracting Product Lines from vAriaNTs (EXPLANT)
Laufzeit: 16.02.2016 bis 15.02.2018

Software-Produktlinien fördern die strategische Wiederverwendung von Software und den systematischen Umgang mit Variabilität. In der Praxis werden Wiederverwendung und Variabilität jedoch häufig ad hoc realisiert, indem Artefakte kopiert und angepasst werden (der Clone-and-Own-Ansatz). Aufgrund mangelnder Automatisierung ist die Übertragung von Änderungen (z.B. Fehlerbeseitigungen, Performance-Verbesserungen) auf mehrere geklonte Produktvarianten sowie der Austausch von Funktionalität zwischen Varianten zeitaufwendig und fehleranfällig.

Zur Lösung schlagen wir die schrittweise Überführung geklonter Produktvarianten in eine kompositionale Software-Produktlinie (SPL) vor. Die Varianten werden zunächst unverändert in eine initiale SPL integriert. Anschließend wird diese SPL mittels kleiner, Semantik-erhaltender Schritte in eine gut strukturierte, modulare Ziel-SPL transformiert. Ein derartiges Vorgehen bietet gegenüber existierenden Ansätzen zur Überführung von Produktvarianten in SPLs folgende Vorteile:

1) Die SPL kann unmittelbar produktiv eingesetzt werden. Bisher waren lange Produktionsstopps erforderlich, da die Überführung nicht unterbrochen werden konnte.

2) Der kompositionale Implementierungsansatz begünstigt die Wartbarkeit. Die Probleme der in der Praxis verbreiteten annotativen SPL-Implementierungsansätze (u. a. wenig modularer, schlecht verständlicher Programm-Code) werden vermieden.

3) Die Semantik-Erhaltung der ursprünglichen Varianten wird garantiert.

Kernziel unseres Projekts ist die Erforschung Varianten-erhaltender Refactorings. Darunter verstehen wir konsistente Transformationen auf Modell- und Implementierungsebene, die Semantik-erhaltend bezüglich aller möglichen Produkte der SPL sind. Diese Refactorings werden wir mit Code-Clone-Erkennung kombinieren, um den Grad der Wiederverwendung schrittweise zu erhöhen und somit den Wartungsaufwand und die zukünftige Defektrate zu senken. Zudem werden wir Feature-Lokalisierungstechniken in multiplen Produktvarianten erforschen. In Verbindung mit Varianten-erhaltendem Refactoring ermöglichen diese Techniken die schrittweise Feature-orientierte Extraktion von Funktionalität aus multiplen Produktvarianten. Durch Komposition der extrahierten Features können nicht nur die ursprünglichen Varianten rekonstruiert werden. Es werden darüber hinaus neue Varianten möglich, sodass noch gezielter auf Anforderungen reagiert werden kann.

Projekt im Forschungsportal ansehen

A Personalized Recommender System for Product-Line Configuration
Laufzeit: 15.01.2015 bis 31.12.2017

Today s competitive marketplace requires industries to understand the unique and particular needs of their customers. Software product line enables industries to create individual products for every customer by providing an interdependent set of features that can be configured to form personalized products. However, as most features are interdependent, users need to understand the impact of their gradual decisions in order to make the most appropriate choices. Thus, especially when dealing with large feature models, specialized assistance is needed to guide the users personalizing valid products. In this project, we aim using recommender system and search-based software engineering techniques to handle the product configuration process in large and complex product lines.

Projekt im Forschungsportal ansehen

Software Product Line Testing
Laufzeit: 01.10.2013 bis 30.09.2017

Exhaustively testing every product of a software product line (SPL) is a difficult task due to the combinatorial explosion of the number of products. Combinatorial interaction testing is a technique to reduce the number of products under test. In this project, we aim to handle multiple and possibly conflicting objectives during the test process of SPL.

Projekt im Forschungsportal ansehen

Southeast Asia Research Network: Digital Engineering
Laufzeit: 01.06.2013 bis 31.05.2017

German research organizations are increasingly interested in outstanding Southeast Asian institutions as partners for collaboration in the fields of education and research. Bilateral know-how, technology transfer and staff exchange as well as the resultant opportunities for collaboration are strategically important in terms of research and economics. Therefore, the establishment of a joint research structure in the field of digital engineering is being pursued in the project "SEAR DE Thailand" under the lead management of Otto von Guericke University Magdeburg (OvGU) in cooperation with the Fraunhofer Institute for Factory Operation and Automation (IFF) and the National Science and Technology Development Agency (NSTDA) in Thailand.

Projekt im Forschungsportal ansehen

Modern Data Management Technologies for Genome Analysis
Laufzeit: 01.12.2013 bis 31.12.2016

Genome analysis is an important method to improve disease detection and treatment. The introduction of next generation sequencing techniques allows to generate genome data for genome analysis in less time and at reasonable cost. In order to provide fast and reliable genome analysis, despite ever increasing amounts of genome data, genome data management and analysis techniques must also improve. In this project, we develop concepts and approaches to use modern database management systems (e.g., column-oriented, in-memory database management systems) for genome analysis. Project's scope:

  • Identification and evaluation of genome analysis use cases suitable for database support
  • Development of data management concepts for genome analysis using modern database technology with regard to chosen use cases and data management aspects such as data integration, data integrity, data provenance, data security
  • Development of efficient data structures for querying and processing genome data in databases for defined use cases
  • Exploiting modern hardware capabilities for genome data processing

Projekt im Forschungsportal ansehen

Nachhaltiges Variabilitätsmanagement von Feature-orientierten Software-Produktlinien (NaVaS)
Laufzeit: 01.09.2014 bis 31.08.2016

Die Verwendung von Produktlinientechnologie, wie sie beispielsweise in der Automobilbranche seit Jahrzehnten erfolgreich eingesetzt wird, bietet enormes Potential um die Softwareentwicklung zu revolutionieren. Angelehnt an die Wiederverwendung von Motortypen, die mit verschiedenen Karosserien eines Automobilherstellers kombiniert werden können, ermöglichen Softwareproduktlinien die Erstellung von maßgeschneiderten Softwareprodukten auf der Basis gemeinsamer Softwarebestandteile. Ziel des Projektes NaVaS ist es daher, die Entwicklung von Softwareprodukten auf der Basis von Softwareproduktlinien zu vereinfachen und somit die Etablierung dieser Entwicklungstechnologie voranzutreiben.

Kernarbeit des Projektes
Zur Unterstützung der Entwicklung von Softwareproduktlinien wird im Projekt NaVaS eine Softwareentwicklungsumgebung zur Erstellung von Produktlinien entwickelt. Diese basiert auf einem bereits bestehenden Forschungsdemonstrator und wird sowohl funktional und auch aus Anwendersicht den Anforderungen im kommerziellen Gewerbe und der Forschung angepasst. Hierbei werden langjährige Erfahrung bei der Entwicklung maßgeschneiderter Software seitens der METOP GmbH und der Erforschung alternativer Technologien seitens der Universität Magdeburg verschmolzen und deren Praktikabilität mit Hilfe von geeigneten assoziierten Partnern aus Industrie und Forschung sichergestellt. Die Bereitstellung einer Entwicklungsumgebung für Softwareproduktlinien, entsprechend des Forschungsdemonstrators, eröffnet somit neue Möglichkeiten. Entwicklungszeiten würden sich stark verkürzen und damit Produkte schneller am Markt verfügbar sein. Durch den zusätzlich geringeren Wartungsaufwand könnten weitere Kosten eingespart werden.

Projekt im Forschungsportal ansehen

Software Product Line Languages and Tools III
Laufzeit: 01.07.2012 bis 31.12.2015

In this project we focus on research and development of tools and languages for software product lines. Our research focuses usability, flexibility and complexity of current approaches. Research includes tools as FeatureHouse, FeatureIDE, CIDE, FeatureC++, Aspectual Mixin Layers, Refactoring Feature Modules, and formalization of language concepts. The research centers around the ideas of feature-oriented programming and explores boundaries toward other development paradigms including type systems, refactorings, design patterns, aspect-oriented programming, generative programming, model-driven architectures, service-oriented architectures and more. 

  • FeatureIDE: An Extensible Framework for Feature-Oriented Software Development
  • SPL2go: A Catalog of Publicly Available Software Product Lines

Projekt im Forschungsportal ansehen

A Hybrid Query Optimization Engine for GPU accelerated Database Query Processing II
Laufzeit: 01.04.2014 bis 31.03.2015

Performance demands for database systems are ever increasing and a lot of research focus on new approaches to fulfill performance requirements of tomorrow. GPU acceleration is a new arising and promising opportunity to speed up query processing of database systems by using low cost graphic processors as coprocessors. One major challenge is how to combine traditional database query processing with GPU coprocessing techniques and efficient database operation scheduling in a GPU aware query optimizer. In this project, we develop a Hybrid Query Processing Engine, which extends the traditional physical optimization process to generate hybrid query plans and to perform a cost based optimization in a way that the advantages of CPUs and GPUs are combined. Furthermore, we aim at a database architecture and data model independent solution to maximize applicability.

  • HyPE-Library
    • HyPE is a hybrid query processing engine build for automatic selection of processing units for coprocessing in database systems. The long-term goal of the project is to implement a fully fledged query processing engine, which is able to automatically generate and optimize a hybrid CPU/GPU physical query plan from a logical query plan. It is a research prototype developed by the Otto-von-Guericke University Magdeburg in collaboration with Ilmenau University of Technology
  • CoGaDB
    • CoGaDB is a prototype of a column-oriented GPU-accelerated database management system developed at the University of Magdeburg. Its purpose is to investigate advanced coprocessing techniques for effective GPU utilization during database query processing. It uses our hybrid query processing engine (HyPE) for the physical optimization process. 

Projekt im Forschungsportal ansehen

Clustering the Cloud - A Model for Self-Tuning of Cloud Datamanagement Systems
Laufzeit: 01.10.2011 bis 31.03.2015

Over the past decade, cloud data management systems became increasingly popular, because they provide on-demand elastic storage and large-scale data analytics in the cloud. These systems were built with the main intention of supporting scalability and availability in an easily maintainable way. However, the (self-) tuning of cloud data management systems to meet specific requirements beyond these basic properties and for possibly heterogeneous applications becomes increasingly complex. Consequently, the self-management ideal of cloud computing is still to be achieved for cloud data management. The focus of this PhD project is (self-) tuning for cloud data management clusters that are serving one of more applications with divergent workload types. It aims to achieve dynamic clustering to support workload based optimization. Our approach is based on logical clustering within a DB cluster based on different criteria such as: data, optimization goal, thresholds, and workload types.

Projekt im Forschungsportal ansehen

Analysis Strategies for Software Product Lines
Laufzeit: 01.02.2010 bis 31.12.2014

Software-product-line engineering has gained considerable momentum in recent years, both in industry and in academia. A software product line is a set of software products that share a common set of features. Software product lines challenge traditional analysis techniques, such as type checking, testing, and formal verification, in their quest of ensuring correctness and reliability of software. Simply creating and analyzing all products of a product line is usually not feasible, due to the potentially exponential number of valid feature combinations. Recently, researchers began to develop analysis techniques that take the distinguishing properties of software product lines into account, for example, by checking feature-related code in isolation or by exploiting variability information during analysis. The emerging field of product-line analysis techniques is both broad and diverse such that it is difficult for researchers and practitioners to understand their similarities and differences (e.g., with regard to variability awareness or scalability), which hinders systematic research and application. We classify the corpus of existing and ongoing work in this field, we compare techniques based on our classification, and we infer a research agenda. A short-term benefit of our endeavor is that our classification can guide research in product-line analysis and, to this end, make it more systematic and efficient. A long-term goal is to empower developers to choose the right analysis technique for their needs out of a pool of techniques with different strengths and weaknesses.

  • Stepwise Migration of Cloned Product Variants to a Compositional Software Product Line: This part of the project aims at consolidating such cloned product families into a well-structured, modular software product line.  The consolidation process is semi-automatic and stepwise, where each step is a small, semantics-preserving transformation of the code, the feature model or both.  These semantics-preserving transformations are called variant-preserving refactorings.
  • Projekt im Forschungsportal ansehen

    Consistent data management for cloud gaming
    Laufzeit: 01.07.2012 bis 31.12.2014

    Cloud storage systems are able to meet the future requirements of the Internet by using non-relational database management systems (NoSQL DBMS). NoSQL system simplifies the relational database schema and the data model to improve system performances, such as system scalability and parallel processing. However, such properties of cloud storage systems limit the implementation of some Web applications like massively multi-player online games (MMOG). In the research described here, we want to expand existing cloud storage systems in order to meet requirements of MMOG. We propose to build up a transaction layer on the cloud storage layer to offer flexible ACID levels. As a goal the transaction processing should be offered to game developers as a service. Through the use of such an ACID level model both the availability of the existing system and the data consistency during the interactivity of multi-player can be converted according to specific requirements.

    Projekt im Forschungsportal ansehen

    Load-balanced Index Structures for Self-tuning DBMS
    Laufzeit: 01.01.2010 bis 31.12.2014

    Index tuning as part of database tuning is the task of selecting and creating indexes with the goal of reducing query processing times. However, in dynamic environments with various ad-hoc queries it is difficult to identify potentially useful indexes in advance. The approach for self-tuning index cogurations developed in previous research provides a solution for continuous tuning on the level of index configurations, where configurations are a set of common index structures. In this project we investigate a novel approach, that moves the solution of the problem at hand to the level of the index structures, i.e. to create index structures which have an inherently self-optimizing structure.

    Projekt im Forschungsportal ansehen

    Minimal-invasive integration of the provenance concern into data-intensive systems
    Laufzeit: 01.11.2013 bis 31.12.2014

    In the recent past a new research topic named provenance gained much attention. The purpose of provenance is to determine origin and derivation history of data. Thus, provenance is used, for instance, to validate and explain computation results. Due to the digitalization of previously analogue process that consume data from heterogeneous sources and increasing complexity of respective systems, it is a challenging task to validate computation results. To face this challenge there has been plenty of research resulting in solutions that allow for capturing of provenance data. These solutions cover a broad variety of approaches reaching from formal approaches defining how to capture provenance for relational databases, high-level data models for linked data in the web, to all-in-one solutions to support management of scientific work ows. However, all these approaches have in common that they are tailored for their specific use case. Consequently, provenance is considered as an integral part of these approaches that can hardly be adjusted for new user requirements or be integrated into existing systems. We envision that provenance, which highly needs to be adjusted to the needs of specific use cases, should be a cross-cutting concern that can seamlessly be integrated without interference with the original system.

    Projekt im Forschungsportal ansehen

    MultiPLe - Multi Software Product Lines
    Laufzeit: 01.03.2012 bis 31.10.2014

    Aus der zunehmenden Verbreitung von Softwareproduktlinien resultieren Multi-Software-Produktlinien (kurz Multiproduktlinien), komplexe Softwaresysteme, die aus einer Vielzahl voneinander abhängigen Softwareproduktlinien erstellt werden. Ziel des Projektes ist die Erarbeitung von Konzepten und Methoden zur systematischen Entwicklung von Multiproduktlinien. Schwerpunkt der zweiten Projektphase ist die Verallgemeinerung entwickelter Konzepte, um Kompositionssicherheit und Interoperabilität in heterogenen Multiproduktlinien zu erreichen, die mit unterschiedlichen Programmierparadigmen und Variabilitätsmechanismen entwickelt werden. Dazu muss für alle gültigen Konfigurationen einer Multiproduktlinie sichergestellt werden, dass die Konfiguration der beteiligten Produktlinien aufeinander abgestimmt sind, so dass die von einer Produktlinie benötigte Funktionalität von einer anderen Produktlinie bereitgestellt wird (semantische Interoperabilität) und syntaktische Korrektheit z. B. von Methodenaufrufen (syntaktische Interoperabilität) garantiert wird. Ziel ist es daher, Kompositionssicherheit auf Modellebene zu erreichen, um von Implementierungsdetails zu abstrahieren, sowie Interoperabilität auf Implementierungsebene (z. B. Typsicherheit) über unterschiedliche Variabilitätsmechanismen hinweg zu garantieren. Nur so ist eine skalierende Anwendung der Produktlinientechnologie zur Entwicklung komplexer heterogener Softwaresysteme möglich.

    Projekt im Forschungsportal ansehen

    A Hybrid Query Optimization Engine for GPU accelerated Database Query Processing
    Laufzeit: 01.04.2012 bis 31.03.2014

    Performance demands for database systems are ever increasing and a lot of research focus on new approaches to fulfill performance requirements of tomorrow. GPU acceleration is a new arising and promising opportunity to speed up query processing of database systems by using low cost graphic processors as coprocessors. One major challenge is how to combine traditional database query processing with GPU coprocessing techniques and efficient database operation scheduling in a GPU aware query optimizer. In this project, we develop a Hybrid Query Processing Engine, which extends the traditional physical optimization process to generate hybrid query plans and to perform a cost based optimization in a way that the advantages of CPUs and GPUs are combined. Furthermore, we aim at a database architecture and data model independent solution to maximize applicability.

    • HyPE-Library
      • HyPE is a hybrid query processing engine build for automatic selection of processing units for coprocessing in database systems. The long-term goal of the project is to implement a fully fledged query processing engine, which is able to automatically generate and optimize a hybrid CPU/GPU physical query plan from a logical query plan. It is a research prototype developed by the Otto-von-Guericke University Magdeburg in collaboration with Ilmenau University of Technology
    • CoGaDB
      • CoGaDB is a prototype of a column-oriented GPU-accelerated database management system developed at the University of Magdeburg. Its purpose is to investigate advanced coprocessing techniques for effective GPU utilization during database query processing. It uses our hybrid query processing engine (HyPE) for the physical optimization process.  

    Projekt im Forschungsportal ansehen

    STIMULATE -> Management/Nachwuchs -> Management und Organisationsstruktur
    Laufzeit: 01.03.2013 bis 28.02.2014

    Konzepte zur verbesserten Operationsvorbereitung und -durchführung, als auch einer langfristigen Qualitätssicherung werden im Projekt betrachtet. Es wird ein Rahmenkonzept entwickelt, dass als Grundlage für die Entwicklung eines Daten- und Prozessmodells für den Forschungscampus mit dem Ziel einer effizienten Integration und Neuentwicklung innovativer Infrastrukturen dient. Die provenance-sensitive Speicherung und Verarbeitung medizinischer Daten liefert einen angepassten Trade Off zwischen den Anforderungen an die Speicherung und Verarbeitung der Daten in Bezug auf Nachvollziehbarkeit bzw. Reproduzierbarkeit auf der einen und den Anforderungen des Datenschutzes auf der anderen Seite.

    Projekt im Forschungsportal ansehen

    ViERforES-II: Interoperabilität
    Laufzeit: 01.01.2011 bis 30.09.2013

    Die Funktionalität neuer Produkte wird durch einen zunehmenden Anteil von Software in Form von Eingebetteten Systemen erzielt. Im Zusammenwirken mit anderen funktionsbestimmenden Komponenten komplexer technischer Systeme erfordert das neue Techologien zur Beherrschung von höchster Sicherheit und Zuverlässigkeit von Produktentwicklungen. Ziel von ViERforES ist es, durch Einsatz von Virtueller und Erweiterter Realität auch nicht physikalische Produkteigenschaften sichtbar zu machen und so adäquate Methoden und Werkzeuge für das Engineering zu entwickeln.

    Die Bereitstellung von Lösungen zur gesamtheitlichen Betrachtung komplexer Produkte oder Anlagen in der Entwicklung, dem Tests und während des Betriebes stellt die Informationstechnik vor große Herausforderungen. Unter anderem müssen unabhängig voneinander modellierte Komponenten in einen Gesamtkontext eingebracht werden, wofür die virtuelle oder erweiterte Realität als integrierter Arbeitsbereich nutzbar gemacht werden kann. Ziel des Teilprojektes "Interoperabilität für digitale Produkte mit eingebetteten Systemen" ist daher die Sicherstellung der Interoperabilität der beteiligten heterogenen Systeme und der von diesen verwalteten Modelle. Dies reicht von der syntaktischen (verschiedene Schnittstellen, Datenmodelle, etc.) über die semantische (Bedeutung und Zusammenhang von unterschiedlich modellierten Daten und Funktionalitäten) bis zur pragmatischen Ebene (Verwendung durch Nutzer, Unterstützung von Arbeitsabläufen, Kooperation).

    In der 2. Phase sollen insbesondere die nicht-funktionale Interoperabilität zwischen Systemen sowie die Interoperabilität zwischen heterogenen Simulationssystemen betrachtet werden.

    Projekt im Forschungsportal ansehen

    ViERforES-II: Vertrauenswürdige Systeme
    Laufzeit: 01.01.2011 bis 30.09.2013

    In diesem Arbeitspaket des Teilprojekts "Vertrauenswürdige Systeme" wird die Zuverlässigkeit eingebetteter Systeme auf Quelltextebene mit Fokus auf Programmverständnis und Wartbarkeit untersucht. Es geht darum, Konzepte und Visualisierungen zur Verbesserung des Programmverständnisses zu untersuchen und zu implementieren. Ergebnis auf dieser Ebene soll eine prototypische Komponente für eine Entwicklungsumgebung sein, in der Konzepte zur optimalen Unterstützung des Programmverständnisses umgesetzt sind. Dadurch sollen z.B. Sicherheitslücken bereits auf Quelltextebene erkannt und behoben werden sowie die Wartung von Software unterstützt werden, sodass Wartungskosten gesenkt werden. Durch umfassende empirische Untersuchungen soll gezeigt werden, dass durch die umgesetzten Konzepte Gefährdungen der Security gesenkt werden können sowie die Wartung von Software veressert wird.

    Projekt im Forschungsportal ansehen

    Virtuelle und Erweiterte Realität für höchste Sicherheit und Zuverlässigkeit Eingebetteter Systeme - Phase II (ViERforES II)
    Laufzeit: 01.01.2011 bis 30.09.2013

    Unter dem Titel Virtuelle und Erweiterte Realität für höchste Sicherheit und Zuverlässigkeit eingebetteter Systeme (ViERforES) begann ein Verbund aus universitärer und anwendungsorientierter Forschung sich den Herausforderungen zu stellen, die der verstärkte Einsatz moderner Informations- und Kommunikationstechnologien in den Anwendungsfeldern Automotive/Mobilität, Medizintechnik / Neurowissenschaften und Energiesysteme mit sich bringt.
    Die Gemeinsamkeit der genannten drei Anwendungsfelder besteht darin, dass die in diesen Bereichen zu entwickelnden Produkte ihre Funktionalität durch einen wachsenden Anteil an Software realisieren. Damit die Produkte aus Deutschland weiterhin ihrem Anspruch an eine hohe Qualität und Zuverlässigkeit gerecht werden, ist es notwendig neue Methoden des Engineerings zu entwickeln. Die bisher etablierten Methoden der Produkt- und Prozessentwicklung müssen folglich auch auf das Software-Engineering erweitert werden.
    Die erreichten Ergebnisse von ViERforES wurden durch den Aufbau von Demonstratoren in jedem Anwendungsfeld gezeigt. Dadurch konnten Industrieunternehmen gewonnen werden, die das Projektkonsortium in dem nun anschließenden Projekt ViERforES II verstärken. Ihre Aufgabe ist es, die anwendungsnahe Weiterentwicklung der Demonstratoren zu unterstützen, so dass die Funktionserprobung ihrer Produkte und Prozesse zukünftig in einer virtuellen Umgebung erfolgen kann.

    Projekt im Forschungsportal ansehen

    Digi-Dak (Digitale Fingerspuren) - Teilprojekt "Datenvorverarbeitung und Datenhaltung"
    Laufzeit: 01.01.2010 bis 31.05.2013

    Das Projekt Digi-Dak widmet sich der Erforschung von Mustererkennungstechniken für Fingerspuren, welche mittels berührungsloser optischer 3D Oberflächensensortechnik erfasst werden. Das generelle Ziel ist es, eine Verbesserung/Unterstützung der kriminalistischen Forensik (Daktyloskopie) zu erzielen. Insbesondere liegt der Fokus des Projektes dabei auf potentiellen Szenarien in präventiven und forensischen Prozessen, speziell auch für die Überlagerung von Spuren oder die Altersdetektion.   Ziel des Teilprojektes Datenvorverarbeitung und Datenhaltung ist es, die erfassten (dreidimensionalen) Sensordaten aufzubereiten und so zu speichern, dass der automatisierte Prozess der Fingerspurenerfassung unterstützt bzw. verbessert wird. In diesem Rahmen werden Methoden zur effizienten Speicherung und Anfragebearbeitung von hochdimensionalen Daten erforscht. Darüber hinaus sollen Methoden und Konzepte erforscht werden, die die Beweiskraft der erfassten Fingerspuren auch nach deren Vor- bzw. Weiterverarbeitung gewährleisten.

    Projekt im Forschungsportal ansehen

    Optimierungs- und Selbstverwaltungskonzepte für Data-Warehouse-Systeme
    Laufzeit: 01.01.2011 bis 12.04.2013

    Data-Warehouse-Systeme werden seit einiger Zeit für Markt- und Finanzanalysen in vielen Bereichen der Wirtschaft eingesetzt. Die Anwendungsgebiete dieser Systeme erweitern sich dabei ständig, und zusätzlich steigen die zu haltenenden Datenmengen (historischer Datenbestand) immer schneller an. Da es sich oft um sehr komplexe und zeitkritische Anwendungen handelt, müssen die Analysen und Berechnungen auf den Daten immer weiter optimiert werden. Dazu allein reicht die stetig steigende Leistung von Rechner- und Serversystemen nicht aus, da die Anwendungen immer neue Anforderungen und komplexer werdende Berechnungen benötigen. Dadurch wird auch klar, daß der zeitliche und finanzielle Aufwand zum Betrieb solcher Systeme immens ist.

    Im Rahmen dieses Projekts soll untersucht werden, welche Möglichkeiten existieren, bisherige Ansätze zu erweitern und neue Vorschläge in bestehende System zu integrieren um die Leistung dieser zu steigern. Um dieses Ziel zu erreichen sollen Ansätze aus dem Bereich des Self-Tunings genutzt werden, denn so können die Systeme sich autonom an ständig ändernde Rahmenbedingungen und Anforderungen anpassen. Diese Ansätze sollen durch Erweiterungen wie zum Beispiel die Unterstützung von Bitmap-Indexen verbessert werden. Weiterhin soll Bezug genommen werden auf tiefere Ebenen der Optimierung, wodurch eine physische Optimierung möglich (autonom) und erleichtert werden soll.

    Projekt im Forschungsportal ansehen

    Software Product Line Languages and Tools II
    Laufzeit: 01.01.2011 bis 30.06.2012

    This project focuses on research and development of tools and languages for software product line development. The research aims at improving usability, flexibility and complexity of current approaches. This includes tools as FeatureC++, FeatureIDE, and CIDE as well as concepts like Aspect Refinement, Aspectual Mixin Layers, and formalization of language concepts. The research centers around the ideas of feature-oriented programming and explores boundaries toward other development paradigms including design patterns, aspect-oriented programming, generative programming, model-driven architectures, service-oriented architectures and more.

    Projekt im Forschungsportal ansehen

    MultiPLe - Multi Software Product Lines
    Laufzeit: 01.09.2009 bis 31.12.2011

    Die zunehmende Verbreitung von Softwareproduktlinien in allen Bereichen der Softwareentwicklung resultiert in komplexen Softwaresystemen, die aus einer Vielzahl von Instanzen unterschiedlicher Produktlinien erstellt werden. Beispielsweise können ein Datenbankmanagementsystem und ein Betriebssystem jeweils als Produktlinie entwickelt und ein Gesamtsystem aus Instanzen dieser Produktlinien erstellt werden. Ein solches aus mehreren voneinander abhängigen Produktlinien bestehendes System kann als Multi-Software-Produktlinie aufgefasst werden. Zur Erstellung eines konkreten Gesamtsystems werden die einzelnen Produktlinieninstanzen entsprechend der vom Nutzer gewünschten Funktionalität maßgeschneidert, müssen zusätzlich aber aufeinander abgestimmt werden, um ein funktionsfähiges Gesamtsystem zu erhalten.

    Ziel dieses Projektes ist die Erarbeitung von Konzepten und Methoden zur Entwicklung von Multi-Software-Produktlinien, die aus mehreren, voneinander abhängigen Produktlinien bestehen. Dazu sollen Grundlagen zur Modellierung, Implementierung und automatisierten Komposition von Multi-Software-Produktlinien erarbeitet werden.

    Projekt im Forschungsportal ansehen

    COMO B3 - IT-Security Automotive
    Laufzeit: 01.09.2007 bis 31.08.2011

    Immer mehr IT-Komponenten finden den Weg in ein (Kraft)-Fahrzeug, sei es zur Steigerung des Komforts oder der Sicherheit. Die entsprechenden autarken Steuergeräte kommunizieren dabei über verschiedene Bussysteme und begründen dabei das IT-System Automobil. Durch das erhöhte Aufkommen von Kommunikation (auch über externe Schnittstellen, z.B. car-2-car) steigt sowohl das Sicherheitsrisiko/-bedürfnis als auch die zu verarbeitenden Daten.
    Im Teilprojekt B3 des Forschungsprojektes COmpetence in MObility (COMO) sollen daher Konzepte für das automotive System geschaffen werden, um sowohl die Sicherheit im Auto dauerhaft zu gewaehrleisten (z.B. Abwehr gegen Angriffe auf IT-Komponenten) als auch das hohe Datenaufkommen auf effiziente Art und Weise durch Infrastruktursoftware (z.B. DBMS) zu handhaben.
    Für das Datenmanagement wird dabei eine Produktlinienentwicklung angestrebt, die durch Anwendung neuer Programmiertechniken sowohl den ressourcenbedingten Einschränkungen im Automobil gerecht wird als auch die Kosten für die Neuentwicklung einzelner Komponenten durch Wiederverwendung minimiert.

    Projektpartner sind Prof. J.Dittmann (AG Multimedia & Security) und Prof. G.Saake (AG Datenbanken) vom Institut für technische und betriebliche Informationssysteme (ITI) der OvGU als auch Prof. U. Jumar vom Institut für Automation und Kommunikation (ifak) der OvGU.

    Projekt im Forschungsportal ansehen

    Datenschnittstellen und ganzheitliche Modelle für die funktionale Simulation (C1 Automotive)
    Laufzeit: 01.09.2007 bis 31.08.2011

    Ein ganzheitliches Virtual Engineering von der Entwicklung bis hin zur Fertigung von Produkten erfordert die Verbindung unterschiedlicher ingenieurwissenschaftlicher Disziplinen bezogen auf die Betrachtungsebenen und Detaillierungsgrade in ihren Modellwelten.
    Ziel dieses Teilprojektes, welches im Rahmen des COmpetence in MObility (COMO) Projektes läuft, beinhaltet die Beschreibung, Spezifikation und Entwicklung von Modell- und Schnittstellenwerkzeugen zur Verwaltung der Daten. Die Sammlung von Werkzeugen umfasst Datentransformationen, Meta-Datenbank, die Informationen über Modelle, Komponenten und das System enthält.
    Damit soll ein Beitrag zur Weiterentwicklung virtueller Technologien bzw. zur Verbesserung von deren Anwendbarkeit bei Engineering- und Planungsprozessen geleistet werden.

    Projektpartner des Teilprojektes sind Prof. U. Gabbert vom Institut für Mechanik (IFME) Magdeburg, Prof. R. Kaspar vom Institut für Mobile Systeme (IMS) Magdeburg und Prof. M. Schenk vom Institut für Logistik und Materialflusstechnik (ILM) Magdeburg.

    Projekt im Forschungsportal ansehen

    Referenzdatenmodelle für mechatronischen Entwurf, Modellbildung und Simulation (C3 Automotive)
    Laufzeit: 01.09.2007 bis 31.08.2011

    Ein ganzheitliches Virtual Engineering von der Entwicklung bis hin zur Fertigung von Produkten erfordert die Verbindung unterschiedlicher ingenieurwissenschaftlicher Disziplinen bezogen auf die Betrachtungsebenen und Detaillierungsgrade in ihren Modellwelten.
    Das Teilprojekt C3, des COmpetence in MObility (COMO) Projektes, beinhaltet die Entwicklung einer Referenzdatenbank zur Verwaltung von komplexen Modellen und Abhängigkeiten, sowie die Spezifikation von Referenzdatenmodellen für den mechatronischen Entwurf, die Modellbildung und Simulation.
    Das ganzheitliche Referenzdatenmodell wird verschiedenartige (u.a. mechanische, elektrische, regelungstechnische) Modelle in virtuelle Produktkomponenten integrieren. Damit soll ein Beitrag zur Weiterentwicklung virtueller Technologien bzw. zur Verbesserung von deren Anwendbarkeit bei Engineering- und Planungsprozessen geleistet werden.

    Projektpartner des Teilprojektes ist Prof. M. Schenk vom Fraunhofer-Institut für Fabrikbetrieb und -automatisierung (IFF) Magdeburg.

    Projekt im Forschungsportal ansehen

    Reflective and Adaptive Middleware for Software Evolution of Non-Stopping Information Systems
    Laufzeit: 01.04.2008 bis 31.08.2011

    Auch moderne Informationssysteme sind noch weit davon entfernt in unserer schnell-lebigen wettbewerbsorientierten Welt flexibel zu agieren bzw. zu reagieren. Neben der einfachen und flexiblen Inbetriebnahme bzw. Anpassung von Informations- und Geschäftsdiensten muss ein Höchstmaß an Qualität und Sicherheit gewährleistet werden. Um dieses zu erreichen, fokussiert der vorliegende Antrag auf die rigorose Entwicklung von selbstadaptiven und kontext-sensitiven verteilten Informationssystemen, welche sich dynamisch zur Laufzeit weiterentwickeln. Unser Ansatz sieht die Interaktion mit der Umwelt im Mittelpunkt. Als erster Schritt, wird eine reflexive Middleware entwickelt. Die Basisebene dieser Middleware wird UML-basiert entworfen und implementiert. Die darüberliegende Metaebene steuert die Evolution des Verhaltens und der Struktur mittels eines Script-basierten Ansatzes. Weiterhin enthält sie eine Instanz, welche die Konsistenz während der Adaption überwacht. Diese reflexive Middlewarewird dann um eine domänen-spezifische Architektur erweitert. Diese ermöglicht dynamische Rekonfiguration auf Basis von Graphtransformation und -rewriting sowie die Spezifikation von Eigenschaften mittels temporaler Logiken. Die formale Konsistenzprüfung zur Laufzeit basiert auf Transformationsmodellen, welche Verhalten und Struktur auf Basis- sowie auf Metaebene adaptieren. Neben einer Machbarkeitsstudie werden die Ergebnisse in einer realen Anwendung (europäisches Verkehrskontrollsystem; UTCS) auf ihre praktische Relevanz hin überprüft.

    Projekt im Forschungsportal ansehen

    Optimierungs- und Selbstverwaltungskonzepte für Data-Warehouse-Systeme
    Laufzeit: 15.04.2007 bis 31.12.2010

    Data-Warehouse-Systeme werden seit einiger Zeit für Markt- und Finanzanalysen in vielen Bereichen der Wirtschaft eingesetzt. Die Anwendungsgebiete dieser Systeme erweitern sich dabei ständig, und zusätzlich steigen die zu haltenenden Datenmengen (historischer Datenbestand) immer schneller an. Da es sich oft um sehr komplexe und zeitkritische Anwendungen handelt, müssen die Analysen und Berechnungen auf den Daten immer weiter optimiert werden. Dazu allein reicht die stetig steigende Leistung von Rechner- und Serversystemen nicht aus, da die Anwendungen immer neue Anforderungen und komplexer werdende Berechnungen benötigen. Dadurch wird auch klar, daß der zeitliche und finanzielle Aufwand zum Betrieb solcher Systeme immens ist.

    Im Rahmen dieses Projekts soll untersucht werden, welche Möglichkeiten existieren, bisherige Ansätze zu erweitern und neue Vorschläge in bestehende System zu integrieren um die Leistung dieser zu steigern. Um dieses Ziel zu erreichen sollen Ansätze aus dem Bereich des Self-Tunings genutzt werden, denn so können die Systeme sich autonom an ständig ändernde Rahmenbedingungen und Anforderungen anpassen. Diese Ansätze sollen durch Erweiterungen wie zum Beispiel die Unterstützung von Bitmap-Indexen verbessert werden. Weiterhin soll Bezug genommen werden auf tiefere Ebenen der Optimierung, wodurch eine physische Optimierung möglich (autonom) und erleichtert werden soll.

    Projekt im Forschungsportal ansehen

    Software Product Line Languages and Tools
    Laufzeit: 25.11.2006 bis 31.12.2010

    This project focuses on research and development of tools and languages for software product line development. The research aims at improving usability, flexibility and complexity of current approaches. This includes tools as FeatureC++, FeatureIDE, and CIDE as well as concepts like Aspect Refinement, Aspectual Mixin Layers, and formalization of language concepts. The research centers around the ideas of feature-oriented programming and explores boundaries toward other development paradigms including design patterns, aspect-oriented programming, generative programming, model-driven architectures, service-oriented architectures and more.

    Projekt im Forschungsportal ansehen

    ViERforES - Interoperabilität für digitale Produkte mit eingebetteten Systemen
    Laufzeit: 01.09.2008 bis 31.12.2010

    Die Funktionalität neuer Produkte wird durch einen zunehmenden Anteil von Software in Form von Eingebetteten Systemen erzielt. Im Zusammenwirken mit anderen funktionsbestimmenden Komponenten komplexer technischer Systeme erfordert das neue Techologien zur Beherrschung von höchster Sicherheit und Zuverlässigkeit von Produktentwicklungen. Ziel von VIERforES ist es, durch Einsatz von Virtueller und Erweiterter Realität auch nicht physikalische Produkteigenschaften sichtbar zu machen und so adäquate Methoden und Werkzeuge für das Engineering zu entwickeln.

    Die Bereitstellung von Lösungen zur gesamtheitlichen Betrachtung komplexer Produkte oder Anlagen in der Entwicklung, dem Tests und während des Betriebes stellt die Informationstechnik vor große Herausforderungen. Unter anderem müssen unabhängig voneinander modellierte Komponenten in einen Gesamtkontext eingebracht werden, wofür die virtuelle oder erweiterte Realität als integrierter Arbeitsbereich nutzbar gemacht werden kann. Ziel des Teilprojektes "Interoperabilität für digitale Produkte mit eingebetteten Systemen" ist daher die Sicherstellung der Interoperabilität der beteiligten heterogenen Systeme und der von diesen verwalteten Modelle. Dies reicht von der syntaktischen (verschiedene Schnittstellen, Datenmodelle, etc.) über die semantische (Bedeutung und Zusammenhang von unterschiedlich modellierten Daten und Funktionalitäten) bis zur pragmatischen Ebene (Verwendung durch Nutzer, Unterstützung von Arbeitsabläufen, Kooperation).

    Projekt im Forschungsportal ansehen

    ViERforES - Koordination
    Laufzeit: 01.09.2008 bis 31.12.2010

    Aufgabe des Teilprojektes ist die Koordinierung der Zusammenarbeit der Projektleiter der Teilprojekte der Anwendungsbereiche und Querschnittthemen des Projektes VIERforES sowie Präsentation, Außendarstellung.

    Projekt im Forschungsportal ansehen

    ViERforES - Sichere Datenhaltung in eingebetteten Systemen
    Laufzeit: 01.09.2008 bis 31.12.2010

    Die Funktionalität neuer Produkte wird durch einen zunehmenden Anteil von Software in Form von Eingebetteten Systemen erzielt. Im Zusammenwirken mit anderen funktionsbestimmenden Komponenten komplexer technischer Systeme erfordert das neue Techologien zur Beherrschung von höchster Sicherheit und Zuverlässigkeit von Produktentwicklungen. Ziel von VIERforES ist es, durch Einsatz von Virtueller und Erweiterter Realität auch nicht physikalische Produkteigenschaften sichtbar zu machen und so adäquate Methoden und Werkzeuge für das Engineering zu entwickeln.

    Ziel des Teilprojektes "Sichere Datenhaltung in eingebetteten Systemen" ist es, den Stand der Technik bezüglich Safety und Security sowie ihrer Wechselwirkungen unter dem speziellen Fokus auf eingebettete Systeme aufzuzeigen und in der Kooperation mit Kaiserslautern auf die Anwendungsgebiete abzubilden. Bedrohungen für dieses spezifische Umfeld sollen analysiert und modelliert (z.B. unter Einbeziehung bestehender Schemata wie der CERT-Taxonomie) werden und dem Anwender über Virtual Engineering greifbar gemacht werden. Ein weiterer Schwerpunkt ist die Entwicklung einer Produktlinie für sichere Datenhaltung in eingebetteten Systemen und Konzepte für die Verfügbarkeit dieser Produktlinie im Virtual Engineering.

    Projekt im Forschungsportal ansehen

    Lastbalancierte Indexstrukturen zur Unterstützung des Self-Tuning in DBMS
    Laufzeit: 03.03.2007 bis 31.03.2010

    Indexstrukturen werden seit langer Zeit in Datenbankmanagementsystemen eingesetzt, um bei grösen Datenmengen den Zugriff auf Datenobjekte zu beschleunigen. Dabei werden Datenräume in der Regel gleichmäßig indexiert, um möglichst konstante Zugriffskosten zu erzielen. Weiterhin sind die Indexstrukturen dafür optimiert, den gesamten Datenbereich zu beschreiben, wodurch in der Regel große Indexinstanzen entstehen. Im Rahmen dieses Projektes wird untersucht, welche Möglichkeiten existieren, um Indexe im Rahmen eines Self-Tuning besser an aktuelle Anforderungen eines Systems anzupassen. Im Gegensatz zur parallel betriebenen Forschungen an Indexkonfigurationen sollen hierbei die Indexe selber adaptiv sein, indem sie sich an das Lastverhalten in Form von Zugriffen auf bestimmte Datenbereiche selbständig anpassen. Resultierende Indexstrukturen müssen  dementsprechend nicht mehr höhenbalanciert sein und können gegebenenfalls dünnbesetzt sein oder den Datenraum nur partiell überdecken.

    Projekt im Forschungsportal ansehen

    Methoden und Werkzeuge zum Bau feingranular konfigurierbarer Datenbankfamilien für Anwendungen im Bereich eingebetteter Systeme
    Laufzeit: 01.04.2006 bis 30.09.2008

    Die Einsatzbereiche von Rechensystemen werden immer vielfältiger. Mikroprozessoren finden sich heute bereits in jedem Automobil, jedem Flugzeug und selbst in Küchengeräten undWaschmaschinen. Aktuelle Entwicklungen wie "Ambient Intelligence", "Ubiquitous Computing" und "Pervasive Computing" werden diesen Trend noch verstärken.Häufig benötigen auch derartige "eingebettete" Rechensysteme Infrastruktursoftware zur Datenhaltung, die vieles mit klassischen Datenhaltungssysteme (DBMS), die üblicherweise im Großrechner und PC Bereich eingesetzt werden, gemein hat. Allerdings verhindern dieHeterogenität der Hardware, die teilweise extremen Ressourcenbeschränkungen (die Mehrzahl der eingebetteten Rechensysteme arbeitet noch immer mit 8-Bit Mikroprozessortechnik) unddie unterschiedlichen Anforderungen der häufig sehr speziellen Anwendungsprogramme den Einsatz von Standardlösungen. Die Entwickler reagieren auf dieses Problem in der Regel mit Eigenentwicklungen, so dass das Rad sprichwörtlich immer wieder neu erfunden wird.Das Ziel dieses Vorhabens ist es, Methoden und Werkzeuge zu evaluieren und zu verfeinern, die für den Bau anwendungsspezifisch konfigurierbarer DBMS zielführend sind. Derartige Techniken könnten durch Wiederverwendung Entwicklungskosten reduzieren, ohne auf der anderen Seite die Hardwarekosten zu erhöhen. Neben der Konstruktion von DBMS Familien soll dabei auch die Analyse von Anwendungen betrachtet werden, um so den Aufwand für die Konfigurierung derpassenden DBMS Variante durch Automatisierung zu minimieren.Die aus dem Projekt gewonnenen Erkenntnisse sind über die Domäne der eingebetteten DBMS hinaus von Wert, da allgemeine Methoden und Werkzeuge zur Erstellung von Software-Produktlinien entwickelt und bewertet werden. Durch die Anforderungen an Skalierbarkeit und Effizienz sowie die Komplexität und semantische Ausdruckskraftverwendeter Anfragesprachen wie SQL sind eingebettete DBMS zu diesem Zweck ein ideales Experimentierfeld.Das Vorhaben wird in enger Zusammenarbeit zwischen Forschern aus dem Datenbankumfeld und dem Bereich der eingebetteten Systemsoftware durchgeführt. Bestehende Erfahrungen mit Programmfamilien und passenden Implementierungstechniken, die im Bereich eingebetteter Betriebssysteme gesammelt wurden, werden dabei mit Expertenwissen über die Datenbankdomäne vereint.

    Projekt im Forschungsportal ansehen

    Reflective and Adaptive Middleware for Software Evolution of Non-Stopping Information Systems
    Laufzeit: 15.10.2005 bis 31.03.2008

    Auch moderne Informationssysteme sind noch weit davon entfernt in unserer schnell-lebigen wettbewerbsorientierten Welt flexibel zu agieren bzw. zu reagieren. Neben der einfachen und flexiblen Inbetriebnahme bzw. Anpassung von Informations- und Geschäftsdiensten muss ein Höchstmaß an Qualität und Sicherheit gewährleistet werden. Um dieses zu erreichen, fokussiert der vorliegende Antrag auf die rigorose Entwicklung von selbstadaptiven und kontext-sensitiven verteilten Informationssystemen, welche sich dynamisch zur Laufzeit weiterentwickeln. Unser Ansatz sieht die Interaktion mit der Umwelt im Mittelpunkt. Als erster Schritt, wird eine reflexive Middleware entwickelt. Die Basisebene dieser Middleware wird UML-basiert entworfen und implementiert. Die darüberliegende Metaebene steuert die Evolution des Verhaltens und der Struktur mittels eines Script-basierten Ansatzes. Weiterhin enthält sie eine Instanz, welche die Konsistenz während der Adaption überwacht. Diese reflexive Middlewarewird dann um eine domänen-spezifische Architektur erweitert. Diese ermöglicht dynamische Rekonfiguration auf Basis von Graphtransformation und -rewriting sowie die Spezifikation von Eigenschaften mittels temporaler Logiken. Die formale Konsistenzprüfung zur Laufzeit basiert auf Transformationsmodellen, welche Verhalten und Struktur auf Basis- sowie auf Metaebene adaptieren. Neben einer Machbarkeitsstudie werden die Ergebnisse in einer realen Anwendung (europäisches Verkehrskontrollsystem; UTCS) auf ihre praktische Relevanz hin überprüft.

    Projekt im Forschungsportal ansehen

    Virtuelle Entwicklungs- und Logistikplattform (TP 13 Automotive)
    Laufzeit: 01.10.2005 bis 30.09.2007

    Ein ganzheitliches Virtual Engineering von der Entwicklung bis hin zur Fertigung von Produkten erfordert die Verbindung unterschiedlicher ingenieurwissenschaftlicher Disziplinen bezogen auf die Betrachtungsebenen und Detaillierungsgrade in ihren Modellwelten. Als vorteilhaft hat sich in diesem Zusammenhang die Verwendung von Modellkomponenten erwiesen, die sich an dem Modul- und Schnittstellenkonzept der Produkte orientieren. Die hierfür benötigten ingenieurwissenschaftlichen Grundlagen und Modellierungskonzepte sollen im Rahmen dieses interdisziplinären Projektes erarbeitet und anhand einer prototypischen Softwareplattform zur Unterstützung der Produktentstehungsprozesse erprobt werden. Damit soll ein Beitrag zur Weiterentwicklung virtueller Technologien bzw. zur Verbesserung von deren Anwendbarkeit bei Engineering- und Planungsprozessen geleistet werden. Projektpartner sind Prof. R. Kasper vom Institut für Mobile Systeme der OvGU Magdeburg, Prof. U. Gabbert vom Institut für Mechanik der OvGU Magdeburg sowie Prof. M. Schenk vom Fraunhofer-Institut für Fabrikbetrieb und -automatisierung (IFF) Magdeburg.

    Projekt im Forschungsportal ansehen

    Lastbalancierte Indexstrukturen zur Unterstützung des Self-Tuning in DBMS
    Laufzeit: 01.10.2004 bis 02.03.2007

    Indexstrukturen werden seit langer Zeit in Datenbankmanagementsystemen eingesetzt, um bei grösen Datenmengen den Zugriff auf Datenobjekte zu beschleunigen. Dabei werden Datenräume in der Regel gleichmäßig indexiert, um möglichst konstante Zugriffskosten zu erzielen. Weiterhin sind die Indexstrukturen dafür optimiert, den gesamten Datenbereich zu beschreiben, wodurch in der Regel große Indexinstanzen entstehen. Im Rahmen dieses Projektes wird untersucht, welche Möglichkeiten existieren, um Indexe im Rahmen eines Self-Tuning besser an aktuelle Anforderungen eines Systems anzupassen. Im Gegensatz zur parallel betriebenen Forschungen an Indexkonfigurationen sollen hierbei die Indexe selber adaptiv sein, indem sie sich an das Lastverhalten in Form von Zugriffen auf bestimmte Datenbereiche selbständig anpassen. Resultierende Indexstrukturen müssen  dementsprechend nicht mehr höhenbalanciert sein und können gegebenenfalls dünnbesetzt sein oder den Datenraum nur partiell überdecken.

    Projekt im Forschungsportal ansehen

    Werkzeugunterstützung für die Entwicklung von Produktlinien
    Laufzeit: 01.10.2004 bis 31.08.2006

    Produktlinientechnologien bzw. Domain Engineering stellen wichtige Methoden zur Erstellung von wiederverwendbarer, konfigurierbarer und beherrschbarer Software dar. Ziel des Projektes ist die durchgehende Unterstützung des Produktlinien bzw. Domain Engineering Prozesses. Im Moment gibt es eine Vielzahl von Methoden und Werkzeugen zur Unterstützung der einzelnen Phasen des Domain Engineering (Analyse, Entwurf, Implementierung, Konfigurierung). Allerdings besteht zwischen diesen oftmals keinerlei Zusammenhang. Dadurch können nicht alle Informationen einer Phase in eine folgende übernommen werden und gehen somit verloren. Diese Informationen fehlen bei späteren Erweiterungen, Anpassungen und Wartungsarbeiten. Deshalb m"ussen viele einmal spezifizierte Eigenschaften der zu erstellenden Software mehrmals neu eingegeben bzw. implementiert oder spezifiziert werden. Des Weiteren wird in diesem Projekt FeatureC++, eine merkmalsorientierte Erweiterung zu C++, entwickelt. Die Idee auch für die Anwendungsentwicklung mit C++ eine Sprachunterstützung  anzubieten (Hierher nur Java mit AHEAD). Weiterhin soll damit gezeigt werden, das die Entwicklungsumgebung sowie der Entwicklungsprozess unabhängig von einer Sprache (AHEAD – Java, FeatureC++ – C++) oder speziellen Werkzeugen ist. Der Prozess und die Werkzeuge folgen lediglich dem Paradigma der Merkmalsorientierung.

    Projekt im Forschungsportal ansehen

    Hochkonfigierbares Datenmanagement
    Laufzeit: 01.10.2002 bis 02.03.2006

    Die Einsatzbereiche von Rechensystemen werden immer vielfältiger. Mikroprozessoren finden sich heute bereits in jedem Automobil, jedem Flugzeug und selbst in Waschmaschinen. Aktuelle Entwicklungen wie "Ubiquitous Computing" und "Pervasive Computing" werden diesen Trend noch verstärken. Häufig benötigen auch derartige "eingebettete" Rechensysteme Infrastruktursoftware zur Datenhaltung, die vieles mit klassischer Datenhaltung in DBMS gemein haben. Allerdings verhindern die Heterogenität der Hardware, die teilweise extremen Ressourcenbeschränkungen und die unterschiedlichen Anforderungen der häufig sehr speziellen Anwendungsprogramme den Einsatz von Standardlösungen. Um zu verhindern, dass Entwickler darauf mit Eigenentwicklungen reagieren bedarf es spezieller anpassbarer DBMS für die Anwendungsdomäne der eingebetteten Systeme. Das Ziel dieses Vorhabens ist es, Methoden und Werkzeuge zu evaluieren und zu verfeinern, die für den Bau anwendungsspezifisch konfigurierbarer DBMS zielführend sind. Dabei soll neben der Konstruktion der DBMS Familie auch die Analyse von Anwendungen betrachtet werden, um so den Aufwand f"ur die Konfigurierung der passenden DBMS Variante durch Automatisierung zu minimieren.

    Projekt im Forschungsportal ansehen

    Relevance-Feedback
    Laufzeit: 01.03.2002 bis 01.03.2006

    Bei der Suche in Bilddatenbanken ohne textuelle Annotationen ist man von automatisch extrahierten Metadaten abhängig. Beim Relevance-Feedback erfolgt die Suche interaktiv auf den extrahierten Daten. Bei den extrahierten Daten handelt es sich um Merkmalen wie Farbe und Form. Diese so genannten low-level-Merkmale können ein gesuchtes Bild nur vage beschrieben. Daher entspricht die Ergebnismenge einer Anfrage auf diesem Datenraum in der Regel nicht genau den Vorstellungen des Nutzers.Durch mehrere iterative Schritte während eines Anfrageprozesses kann die menschliche Beurteilung mit in die Anfrageausführung einbezogen werden. Bei einer unbefriedigenden Ergebnismenge gibt es mehrere Verfahren, bei denen durch iterative Anfrageformulierung eine Verbesserung der Ergebnismenge erreicht werden kann. Ein Beispiel wäre die Bewertung der Ergebnismenge durch den Nutzer. Die bewertete Anfrage wird als neue Anfrage an das System geschickt. Eine benutzerorientierte Unterstüzung bei der Iteration ist durch eine geeignete Präsentation der Ergebnismenge möglich.

    Projekt im Forschungsportal ansehen

    Ähnlichkeitsbasierte Operationen für die Integration strukturierter Daten
    Laufzeit: 01.10.2000 bis 02.08.2005

    Die Behandlung von Diskrepanzen in Daten ist immer noch eine große Herausforderung und zum Beispiel relevant zur Beseitigung von Duplikaten aus semantisch überlappenden Datenquellen als auch zur Verbindung komplementärer Daten aus verschiedenen Quellen. Entsprechende Operationen können meist nicht nur auf Wertegleichheit basieren, da nur in wenigen Fällen über Systemgrenzen hinweg gültige Identifikatoren existieren.Die Verwendung weiterer Attributwerte ist problematisch, da fehlerhafte Daten und unterschiedliche Darstellungsweisen ein häufiges Problem in diesem Kontext sind. Deshalb müssen solche Operation auf der Ähnlichkeit von Datenobjekten und -werten basieren.Dieser Probleme wird sich in dem Promotionsprojekt von Herr Eike Schallehn angenommen, indem ähnlichkeitsbasierte Operationen entsprechend einem leichtgewichtigen, generischen Rahmen bereitgestellt werden. Die ähnlichkeitsbasierte Selektion, der Verbund und die Gruppierung werden bezüglich ihrer allgemeinen Semantik und besonderer Aspekte der zugrunde liegenden Ähnlichkeitsrelationen diskutiert. Entsprechende Algorithmen für die Datenbearbeitung werden für materialisierte und virtuelle Datenintegrationsszenarien beschrieben. Implementierungen werden vorgestellt und bezüglich der Anwendbarkeit und Effizienz der vorgestellten Ansätze evaluiert.

    Projekt im Forschungsportal ansehen

    Optimierung von Ähnlichkeitsanfragen in Multimedia-Datenbanksystemen
    Laufzeit: 01.01.2003 bis 01.08.2005

    Für die Suche in Multimedia-Datenbanksystemen müssen neben exakten  Ergebnissen auch solche einbezogen werden, die der gewünschten Information  möglichst nahe kommen, d.h. ähnlich sind. Eine Anfrage könnte etwa sein,  in einer Bilddatenbank die Bilder zu finden, die möglichst ähnlich zu  einem bestimmten Vorgabebild sind. Die "Ähnlichkeit" wird jedoch von  verschiedenen Faktoren, wie der subjektiven Einschätzung des Nutzers und   der Gewichtung von Teilanfragen beeinflusst. Da solche Faktoren allgemein  nicht durch ein System vorhersagbar sind, ist es notwendig, sie in die Anfragesprache des Systems zu integrieren. Dabei eignet sich zur Anfrageformulierung eine kalkülbasierte QBE-Sprache aufgrund des  deklarativen Charakters für den Anwender. Für die Anfrageverarbeitung   durch den Computer hingegegen eignet sich eine algebrabasierte Sprache  besser.Die aus deklarativen Nutzeranfragen erzeugten Algebraausdrücke stellen im  Allgemeinen nicht die bestmögliche Berechnungsvorschrift dar, so dass eine  Optimierung sinnvoll bzw. notwendig ist. Eine besondere Berücksichtigung  bei der Optimierung verlangt dabei die Behandlung der in die Sprache  eingebetteten Ähnlichkeitswerte.

    Projekt im Forschungsportal ansehen

    Suche in Multimedia-Datenbanken
    Laufzeit: 02.03.2005 bis 01.08.2005

    Das langfristige Ziel ist die Erforschung der Nutzung von Datenbankkonzepten zur Verwaltung von Multimedia-Daten. Der Schwerpunkt liegt auf Methoden und Werkzeugen zur Suche nach Multimedia-Daten. Wichtige Forschungsergebnisse sollen dabei anhand von Prototypen validiert und demonstriert werden.Die Suche nach Multimedia-Daten erfordert die Spezifikation von Anfragen, welche durch den Forschungsschwerpunkt "Gewichten von Anfragen" abgedeckt wird. Dazu wurde die Anfragesprache WS-QBE entwickelt, welche eine QBE-ähnliche Anfragespezifikation von Ähnlichkeitsanfragen erlaubt. WS-QBE-Anfragen werden über eine Kalkülsprache in eine Ähnlichkeitsalgebra überführt, in der eine Optimierung und anschließend die Ergebnisberechnung ausgeführt wird. Zum effizienten Finden von Ergebnissen sind hochdimensionale Indexstrukturen notwendig. Oft kann ein Anfrageergebnis nur mittels mehrerer Anfrage-Iterationen gefunden werden. Dazu werden Konzepte des Relevance Feedbacks verwendet.

    Projekt im Forschungsportal ansehen

    Parallel SQL Based Frequent Pattern Mining
    Laufzeit: 01.01.2002 bis 01.05.2005

    Data mining auf gorßen relationalen Datenbanken hat an popularität gewonnen und seine Besonderheiten sind wohl bekannt.Die Perfomance von SQL gestütztes Data Mining fällt bekannterweise hinter spezialisierten Implementationen zurück.

    Projekt im Forschungsportal ansehen

    Indexunterstützung für Anfrageoperationen in Mediatorsystemen
    Laufzeit: 01.04.2003 bis 31.03.2005

    Viele Benutzer und Applikationen benötigen die Integration von semi-strukturierten Daten aus autonomen, heterogenenen Web-Datenquellen. In den letzten Jahren entstanden Mediator-Systeme, die Domain-Knowledge in Form von Ontologien oder Vokabularen benutzen, um das Problem der strukturellen Heterogenität zu lösen. Allerdings haben viele Anwender nicht das notwendige Wissen über Daten und deren Struktur sowie über die Anfragesprache, um diese Daten sinnvoll zu nutzen. Somit ist es notwendig einfach zu benutzende Anfrageschnittstellen, d.h. Keyword-Suche und Browsing, bereitzustellen.Das Ziel des Projektes ist eine indexbasierte Realisierung von Keyword-Suchen in konzeptbasierten Mediatorsystemen. Um globale Anfragen effizient auszuführen, wird ein Index auf der globalen Ebene aus Anfrageergebnissen aufgebaut und aktuell gehalten. Zusätzlich sollen neben Stichwortanfragen auch Stringähnlichkeitsoperationen unterstützt werden.

    Projekt im Forschungsportal ansehen

    Selbstverwaltung von Indexkonfigurationen in DBMS
    Laufzeit: 01.04.2003 bis 31.03.2005

    Ein Hauptmittel zum Tuning von Datenbanken ist das Anlegen von Indexen zur Beschleunigung der Ausführung einer Vielzahl von Operationen. Jedoch ist das Anlegen der geeigneten Indexe eine schwierige Aufgabe, die genaues Wissen über die Nutzung der Daten und die Arbeitsweise des jeweiligen Datenbankmanagementsystems voraussetzt. Zur Unterstützung dieser Aufgabe wurden in den letzten Jahren von den DBMS-Herstellern Werkzeuge entwickelt, die zum Beispiel typische Anfragen oder Anfrage-Logs analysieren und eine statische Empfehlung für eine Indexkonfiguration ableiten.In der Praxis existieren Datenbanken aber in einem sehr dynamischen Umfeld, wo sich neben typischen Nutzungsprofilen (Anfragen) auch die Daten selber und ebenfalls zur Verfügung stehenden Systemressourcen permanent ändern. Im Rahmen dieses Projektes wird untersucht, wie basierend auf einer kontinuierlichen Analyse des Systems und seiner Nutzung automatisch die aktuelle Indexkonfiguration an sich ändernde Anforderungen angepasst werden kann.

    Projekt im Forschungsportal ansehen

    Konsistenzsicherung bei serverseitigen Änderungen für Datenbestände mobiler Clients
    Laufzeit: 01.11.2004 bis 01.03.2005

    Informationssystemen mit mobilen Klienten müssen die Restriktionen bei Hardware (leichtgewichtige Endgeräte), Energieversorgung (meist Akkumulatoren) und Netzwerknutzung (Kosten, Geschwindigkeiten, Verfügbarkeit) kompensieren. Oftmals kommen hierbei Techniken zum  Einsatz, welche Daten redundant auf dem Mobilgerät speichern. Das Spektrum reicht hierbei von Caching über Hoarding bis hin zur Replikation. Sie unterscheiden sich im Wesentlichen durch das Vorgehen, wie der Nutzer Einfluss auf die zwischenzuspeichernden Daten  nehmen kann. Beim Caching, insbesondere beim semantischen Caching, werden Anfrageergebnisse gepuffert und bei neuen Anfragen gegebenenfalls wiederverwendet. Hoarding-Techniken versuchen vorauszuahnen, welche Daten dem Nutzer eines Mobilgerätes später von Nutzen sein können. Replikationsverfahren erlauben ein gezieltes Anfordern von Daten. Bei allen drei Ansätzen wird jedoch eine künstliche Redundanz der Serverdaten erzeugt, die bei Änderungen zu Inkonsistenzen führt. Daher müssen sowohl Klient, als auch Server konsistenzsichernde    Maßnahmen unterstützen. Im Rahmen dieses Projektes wird daher untersucht, wie ein solcher Abgleich, abhängig vom gewählten  Zwischenspeicherungsansatz erfolgen kann.

    Projekt im Forschungsportal ansehen

    Suche in Multimedia-Datenbanken
    Laufzeit: 02.03.2000 bis 01.03.2005

    Das langfristige Ziel ist die Erforschung der Nutzung von Datenbankkonzepten zur Verwaltung von Multimedia-Daten. Der Schwerpunkt liegt auf Methoden und Werkzeugen zur Suche nach Multimedia-Daten. Wichtige Forschungsergebnisse sollen dabei anhand von Prototypen validiert und demonstriert werden.Die Suche nach Multimedia-Daten erfordert die Spezifikation von Anfragen, welche durch den Forschungsschwerpunkt "Gewichten von Anfragen" abgedeckt wird. Dazu wurde die Anfragesprache WS-QBE entwickelt, welche eine QBE-ähnliche Anfragespezifikation von Ähnlichkeitsanfragen erlaubt. WS-QBE-Anfragen werden über eine Kalkülsprache in eine Ähnlichkeitsalgebra überführt, in der eine Optimierung und anschließend die Ergebnisberechnung ausgeführt wird. Zum effizienten Finden von Ergebnissen sind hochdimensionale Indexstrukturen notwendig. Oft kann ein Anfrageergebnis nur mittels mehrerer Anfrage-Iterationen gefunden werden. Dazu werden Konzepte des Relevance Feedbacks verwendet.

    Projekt im Forschungsportal ansehen

    Softwaretechnische Methoden zur Entwicklung adaptiver verteilter Systeme
    Laufzeit: 01.12.2002 bis 31.12.2004

    Im Kontext der globalen Vernetzung gewinnen verteilte Systeme immer mehr an Bedeutung. Sie durchdringen immer mehr Bereiche des alltäglichen Lebens undmüssen immer flexibler auf äußere Einflüsse reagieren bzw. hinsichtlich dieser angepasst werden. Ziel dieses Promotionsvorhabens ist der wachsenden Komplexität dieser Systeme unter Beachtung des immer breiter werdenden Spektrums von potentiellen Anwendungen und Zielplattformen mittels moderner softwaretechnischer Methoden zu begegnen. Hierbei werden vor allem Aspektorientierte, Generative sowie Merkmalsorientierte Programmierung hinsichtlich Anpassbarkeit, Widerverwendbarkeit und Erweiterbarkeit von verteilten Systemen, ohne die Verständlichkeit und Wartbarkeit einzuschränken, untersucht. In diesem Rahmen wurden und werden außerdem neue Methoden wie konfigurierbares Binden, die kombinierte Anwendung der genannten Sprachparadigmen oder eine visuelle Werkzeugunterstützung entwickelt. Neben dieser statischen Sicht liegt der Fokus außerdem auf der dynamischen Anpassung von verteilten Systemen zur Laufzeit. In diesem Zusammenhang werden auf softwaretechnischer Ebene reflexive Architekturen und dynamisches Aspektweben untersucht. Auf konzeptioneller Ebene wird ein Zusammenhang zwischen Komplexitätsforschung, Kybernetik und selbst-organisierenden adaptiven dezentral-verteilten Systemen hergestellt.

    Projekt im Forschungsportal ansehen

    Adaptive Replikation von Daten in heterogenen mobilen Kommunikationsnetzen
    Laufzeit: 01.11.2000 bis 31.10.2004

    Moderne Kommunikationsnetze mit mobilem, drahtlosem Zugang eröffnen eine Vielzahl neuer Anwendungsgebiete. Die Mobilität der Endgeräte sowie die Ausdehnung der Netzwerke erfordern eine verteilte und redundante Verwaltung sowohl der Managementdaten als auch der eigentlichen Nutzdaten, um einen reibungslosen Betrieb sowie einen effizienten und kostengünstigen Zugriff zu gewährleisten. Daraus resultiert jedoch gleichzeitig auch die Notwendigkeit einer konsistenten Aktualisierung der einzelnen Kopien der Daten. Erschwert wird dies gleichzeitig durch die Heterogenität der Netze und der darauf aufbauenden Systemdienste, die durch die Vielfalt von Technologien und Betreibern bedingt ist. Gegenstand dieses Projektes sind daher Problemstellungen der Datenhaltung in heterogenen, mobilen Netzen. Ausgehend von der Analyse konkreter Anwendungsszenarien und sich daraus ergebender Möglichkeiten werden Replikationstechniken vor allem hinsichtlich der Anpassbarkeit (Adaptivität) an veränderte Rahmenbedingungen untersucht, wie Änderungen der Netztopologie, der Verfügbarkeit einzelner Knoten oder Netzsegmente sowie Veränderungen des Verhaltens bei der Datennutzung.

    Projekt im Forschungsportal ansehen

    Integration von Techniken der Softwarespezifikation für ingenieurwissenschaftliche Anwendungen
    Laufzeit: 01.01.1999 bis 31.12.2003

    Die Ablaufsteuerung vieler ingenieurwissenschaftlicher Anwendungen kann nur unvollständig durch Software realisiert werden. Äußere Einflüsse und menschliche Interaktionen ("offene Systeme") verhindern dies. Weiterhin müssen die spezifizierten Abläufe flexibel an neue Anforderungen und Rahmenbedingungen anpaßbar sein. In Abhängigkeit von der Flexibilität der beschriebenen Prozesse müssen Ablaufbeschreibungen häufig im laufenden Betrieb angepaßt werden. Daraus ergeben sich neue Anforderungen an Softwarespezifikationen, die von klassischen Methoden der Informatik nur unvollständig abgedeckt werden. Zielstellung ist die Erstellung einer Spezifikationssprache und -methode für ingenieurwissenschaftliche Anwendungen mit  Eigenschaften wie der Verwendung einer verbreiteten Notationen, der Zuordnung von Abläufen zu Objekten, einer hierarchischn Verhaltensverfeinerung, hoher Adaptierbarkeit und Flexibilität, einer guten Analysierbarkeit sowie der Generierbarkeit operationaler Abläufe. Die Spezifikationsmethodik soll anhand der Abläufe in einer konkreten Materialflußanlage mit Hilfe von Testfällen überprüft werden. Dabei soll insbesondere die Adaptierbarkeit von Ablaufbeschreibungen im Vordergrund stehen.

    Projekt im Forschungsportal ansehen

    MuSofT - Multimedia in der Software Technik
    Laufzeit: 01.03.2001 bis 31.12.2003

    Die Lehre in der Softwaretechnik soll im Rahmen von MuSofT - Multimedia in der SoftwareTechnik durch den Einsatz neuer Medien unterstützt werden. Die Softwaretechnik zählt in den Diplomstudiengängen für Informatik und Ingenieurinformatik an Fachhochschulen und Universitäten zu den Standardbestandteilen des Curriculums, sie wird in den Studiengängen der Informatik für das Lehramt in der Sekundarstufe II gelehrt und gehört in ingenieurwissenschaftlichen Studiengängen wie Elektro- und Informationstechnik sowie Energietechnik oder Maschinenbau/Logistik zunehmend zur Grundlagenausbildung. Das Projekt MuSofT hat sich zum Ziel gesetzt, die Lehre in diesem anwendungsorientierten Zweig der Informatik durch ein multimediales Angebot nachhaltig zu unterstützen, um auch in Veranstaltungen mit großen und sehr großen Studierendenzahlen die gewohnte und notwendige Qualität der Lehre aufrecht erhalten zu können.
    Im Rahmen des Teilprojektes 1.2 wird eine Lerneinheit zum Thema Entwurf von Informationssystemen gestaltet. Dabei wird insbesondere auf den Bereich der Datenbanksysteme fokussiert, die einen wichtigen Bestandteil in modernen Softwaresystemen darstellen. In den Vorlesungen werden neben der Datenbanktheorie auch praxisnahe Kenntnisse zum Entwurf von Datenbanken vermittelt. Für die verschiedenen Phasen des Datenbankentwurfs werden Lernmodule entwickelt, die sowohl die Unterstützung von Präsenzveranstaltungen wie Vorlesungen und Übungen, als auch des Selbststudiums ermöglichen.

    Projekt im Forschungsportal ansehen

    Internet-Datenbank für kriegsbedingt verbrachte Kulturgüter
    Laufzeit: 01.10.1999 bis 01.10.2003

    Ziel des Projektes ist die Konzeption und Realisierung einer Datenbank zur Verwaltung von kriegsbedingt verbrachten Kulturgütern (Beutekunst). In diesem Rahmen ist eine WWW-Schnittstelle zu entwickeln, die eine Recherche anhand verschiedener Kriterien ermöglicht und Aspekte der Abrechnung von Anfragen berücksichtigt.

    Projekt im Forschungsportal ansehen

    Föderations- und Integrationsdienste für die Informationsfusion
    Laufzeit: 01.01.2000 bis 31.03.2003

    Im Rahmen der Forschergruppe "Workbench für die Informationsfusion" beschäftigt sich das Projekt mit  Diensten zur Integration von Daten und Methodenbausteinen.  Zur Informationsfusion, d.h. zur Gewinnung von semantisch höherwertigen Informationen aus existierenden heterogenen Datenbeständen, werden sowohl Mechanismen zum transparenten und effizienten Zugriff auf diese Datenbestände als auch Methoden zur Integration, Fusion und Analyse der Daten benötigt.Im Rahmen des beantragten Projektes werden daher essentielle Aspekte einer Datenintegrationskomponente untersucht. Für die Informationsfusion müssen heterogen beschriebene Datenbestände integriert und in eine für Fusionsmethoden geeignete Darstellung transformiert werden. Hier soll eine Transformationsbeschreibung entwickelt werden, aus der möglichst automatisch Komponenten zum Datenzugriff generiert werden können. Da es sich oft um sehr grosse Datenbestände handelt, muß die Kombination von Datenbankzugriffen und Fusionsmethoden gemeinsam optimiert werden, um ein akzeptables Zeitverhalten zu erreichen. Hier muß ein gmeinsames Verarbeitungsmodell entwickelt und die klassische Datenbankoptimierungan dieses Modell angepaßt werden. Die Integration von temporären Zugriffsstrukturen und replizierten Daten ist ein weiterer Schwerpunkt des Projektes.

    Projekt im Forschungsportal ansehen

    Föderierungsdienst für heterogene Dokumentenquellen
    Laufzeit: 01.09.1999 bis 31.12.2001

    Ziel dieses Pojektes ist der Entwurf und die Implementierung eines Föderierungsdienstes zur Literatur- und Informationsrecherche in heterogenen Informationssystemen. Eine derartige Komponente ist notwendig, da im Anwendungsszenario des bundesweiten Projektes Global-Info heterogene und autonome Informationssysteme zusammengefaßt werden müssen, die in der Regel verteilt im Netz agieren und deren lokale Eigenschaften nicht beeinflußbar sind. Der Föderierungsdienst schließt dabei auch die Verwaltung von Metadaten der Föderation in einer Datenbank mit ein. Wesentliche Teilprobleme sind weiterhin Methoden zur Extraktion von Metadaten aus teilweise strukturierten Dokumenten und zur Erkennung identischer Informationsobjekte (Dokumente, Autoreninformationen, etc.).

    Projekt im Forschungsportal ansehen

    FIREworks: Feature Integration in Requirements Engineering
    Laufzeit: 01.05.1997 bis 30.04.2000

    Die von der EU im Rahmen des ESPRIT III Programms geförderte Working Group FIREworks ({F}eature {I}ntegration in {R}equirements {E}ngineering) hat sich als Aufgabe gesetzt, das Problem des Hinzufügens sogenannter Features (zusätzlicher Leistungsmerkmale) zu Spezifikationen von komplexen Softwaresystemen zu untersuchen.  Dieses Problem tritt z.B. f"ur Telekommunikationssysteme regelmäßig auf, wenn eine bestehende Spezifikation des Systems um weitere, neue Dienste ergänzt werden soll.  Bei diesem in der Praxis immer wieder auftretenden Anpassen eines bestehenden Systems an neue Anforderungen tritt oft auch ein weiteres Problem, das sogenannte Feature Interaction Problem, auf.  Verschiedene Features, die jeweils einzeln einem bestehenden System hinzugefügt werden können, führen, wenn sie gemeinsam hinzugefügt werden, zu Fehlfunktionen des Systems, weil sie sich gegenseitig beeinträchtigen.  Angestrebt wird eine Erkennung solcher unerwünschten  Interaktionen auf der Basis der System- und Feature-Spezifikationen.

    Projekt im Forschungsportal ansehen

    Werkzeuge und Komponenten für den effizienten Entwurf und die praxisgerechte Implementierung Föderierter Datenbanksysteme.
    Laufzeit: 01.03.1998 bis 28.02.2000

    Dieses Forschungsprojekt ist ein Anschlussprojekt an das im Februar 1998 ausgelaufene Landesprojekt zur Föderierung heterogener Datenbanksysteme und lokaler Datenhaltungskomponenten zur systemübergreifenden Konsistenzsicherung, gefördert unter FKZ 1987A/0025 Im Rahmen des Anschlussprojektes ist der konzeptionelle Entwurf und die Implementierung eines komponentenorientierten Föderierten Datenbanksystems geplant. Dabei sind die Aspekte anwendungsspezifische Konfigurierbarkeit und der praxisgerechte Einsatz zentrale Schwerpunkte der Forschungsbemühungen.

    Projekt im Forschungsportal ansehen

    Föderierung heterogener Datenbanksysteme und lokaler Datenhaltungskomponenten zur systemübergreifenden Integritätssicherung
    Laufzeit: 01.09.1995 bis 28.02.1998

    Ziel des Vorhabens ist die Entwicklung einer Basis-Informationsinfrastruktur als Grundlage integrierter und einheitlicher Datenhaltung füralle Phasen der Fabrikplanung. Dazu soll ein föderiertes heterogenes Informationssystem entstehen, das als Rahmensystem zur Integrationaller an der Fabrikplanung beteiligten Software-Werkzeuge einschließlich deren lokaler Datenbestände dient. Damit sollen bislangseparate Werkzeuge, die für Produktentwurf, Produktionsplanung und Fabriksimulation eingesetzt werden oder dafür noch entwickeltwerden, synergetisch zusammengefügt werden. Zentrale Aufgabe eines solchen föderierten Informationssystems ist neben der Bereitstellung einer homogenen Datenbankschnittstelle fürglobale Anwendungen die systemübergreifende Gewährleistung der Datenkonsistenz. Um diese zu gewährleisten, sollen aktiveMechanismen auf einer übergeordneten Ebene realisiert werden, um die Einzelsysteme mit ihren unterschiedlichen Möglichkeiten derIntegritätssicherung zu verbinden. Die Verbindung der Einzelsysteme verlangt die Integration der verschiedenen Datenschemata, welcheoft auf unterschiedlichen Datenmodellen basieren.

    Projekt im Forschungsportal ansehen

    Expertenprofil
    Datenbanken & Software Engineering
    • Datenmanagement auf neuer Hardware (CPU, GPU, APU, MIC)
    • Integration von Informationssystemen
    • Tuning und Self-Tuning von Datenbankmanagementsystemen
    • Entity Resolution und Sicherheit in der Cloud
    • Feature-orientierte Softwareentwicklung (FOSD)
    • Code-Qualität von hochkonfigurierbarer Software
    • Migration geklonter Produktvarianten in Software-Produktlinien
    • Testen und Konfigurieren von Software-Produktlinien
    • Adaptive Informationssysteme
    • Digital Engineering
    • Data Warehousing
    Service
    Wissenstransfer im Bereich Datenbanktechnologien


    Datenmanagement

    • in der Cloud
    • auf neuer Hardware (CPU, GPU, …)

    Self-Tuning Ansätze


    Bereitstellung von Softwaretechniken für Entwickler

    • Konfigurierbare Software (Software-Produktlinien, Multi-Produktlinien)
    • Wartbarkeit von Software (Refaktorisierung)
    Vita

    1981-1985

    Studium der Informatik mit Nebenfach Mathematik (Diplom-Informatiker), TU Braunschweig

    1985-1988

    Wissenschaftlicher Mitarbeiter am Institut für Programmiersprachen und Informationssysteme, TU Braunschweig

    1988-1988

    Promotion zum Doktor der Naturwissenschaften (Dr. rer.nat), TU Braunschweig

    1988-1989

    Gastwissenschaftler am Wissenschaftliches Zentrum Heidelberg, IBM Deutschland GmbH

    1989-1994

    Hochschulassistent mit Berechtigung zur selbständigen Lehre, TU Braunschweig

    1990-1991

    C3 - Vertretung für das Fach "Datenstrukuten, Informationssysteme", Universität Dortmund

    1993-1993

    Habilitation; Venia Legendi: "Informatik" TU Braunschweig

    1994

    Universitätsprofessur (C4) Praktische Informatik / Datenbanken und Informationssysteme, Otto-von-Guericke-Universität Magdeburg

    1996-1998

    Dekan der Fakultät für Informatik, Universität Magdeburg

    1999-1999

    Ruf an die Universität Hamburg (abgelehnt)

    1999-2002

    Sprecher der DFG Forschergruppe "Workbench für die Informationsfusion", Universität Magdeburg

    2001-2005

    Prorektor für Haushalt und Planung, Universität Magdeburg

    2008-2011

    Koordinator des Universitätsteils des BMBF Verbundprojektes VIERforES, Universität Magdeburg

    2012-2014

    Dekan der Fakultät für Informatik, Universität Magdeburg

    Ehrenamtliche Tätigkeiten, Auszeichnungen und Preise:

    1998

    Otto-von-Guericke-Forschungspreis

    seit 2001

    Herausgeber des Datenbank-Spektrum Journals

    seit 2004

    gewähltes Mitglied im Fachkollegium "Informatik" der DFG (Wahl 2004, Wiederwahl 2008)

    seit 2004

    Mitglied im Fachkollegium Medizintechnik des DFG

    seit 2008

    Mitglied im Vorstand des GI-Beirats der Universitätsprofessoren

    1998-2007

    Mitglied im Vorstand des Fakultätentages Informatik

    Presse
    Die Forschung von Gunter Saake umfasst die Themengebiete Datenbanken und Softwaretechnik. Im Bereich Datenbanken befasst sich Gunter Saake insbesondere mit Datenbankoperationen auf moderner Hardware, dem konzeptuellen Design von Datenbank-Applikationen, mit Anfragesprachen für Datenbanken und mit analysezentrierten Datenbanken. Im Bereich Softwaretechnik treibt Gunter Saake die Untersuchung von Techniken voran, welche es erlauben, Programme modular zu entwickeln und zu konfigurieren. Diese Techniken umfassen Präprozessoren, Objekt-orientierte Programmierung, Aspekt-orientierte Programmierung und Feature-orientierte Programmierung. Zusätzlich engagiert sich Gunter Saake in der Entwicklung von Techniken für die virtuelle Realität.

    Letzte Änderung: 08.06.2023 - Ansprechpartner: Webmaster