Prof. Saake
Prof. Dr. rer. nat. habil. Gunter Saake
Institut für Technische und Betriebliche Informationssysteme (ITI)
- icubic AG
- Technische Universität Kaiserslautern
- Fraunhofer IESE Kaiserslautern
- FuelCon AG
- Lehnert Regelungstechnik GmbH
- Dornheim Medical Images GmbH
- initOS GmbH & Co. KG
- Science and Technology Development Agency (NSTDA)
- Carnegie Mellon University
- Technische Universität Braunschweig
- Pure-systems GmbH
- Fraunhofer Institut IFF Magdeburg
- Bayer
- METOP GmbH
- Deutsches Netzwerk für Bioinformatik-Infrastruktur de.NBI
- Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (DZHW)
- Hochschule Harz, Wernigerode
- Humboldt-Universität zu Berlin, Prof. Dr. Niels Pinkwart
- IFF Fraunhofer Institut für Fabrikbetrieb und -automatisierung
- Institut für Informations- und Kommunikationstechnik - IIKT, OvGU
- Karlsruher Institut für Technologie (KIT)
- Legal Horizon AG
- Leibniz-Institut für Analytische Wissenschaften ISAS e.V.
- MPI Magdeburg
- Ruhr Universität Bochum
- Technische Hochschule Chalmers
- TU Bergakademie Freiberg - Prof. Sebastian Zug
- TU Eindhoven
- Universität Göteborg
- Universität Ulm, Prof. Dr. Thomas Thüm
- Volkswagen AG Wolfsburg
2023
Buchbeitrag
Intelligent data migration policies in a write-optimized copy-on-write tiered storage stack
Wünsche, Johannes; Karim, Sajad; Kuhn, Michael; Broneske, David; Saake, Gunter
In: Proceedings of the 3rd Workshop on Challenges and Opportunities of Efficient and Performant Storage Systems - New York,NY,United States : Association for Computing Machinery . - 2023, S. 17-26 [Workshop: 3rd Workshop on Challenges and Opportunities of Efficient and Performant Storage Systems, Rome, Italy, 8 May 2023]
Investigating the relation between authors’ academic age and their citations
Alchokr, Rand; Joshi, Sanket Vikas; Saake, Gunter; Leich, Thomas; Krüger, Jacob
In: Linking Theory and Practice of Digital Libraries , 1st ed. 2023. - Cham : Springer Nature Switzerland ; Alonso, Omar, S. 106-113 - ( Lecture notes in computer science; volume 14241)
ADAMANT - a query executor with plug-in interfaces for easy co-processor integration
Gurumurthy, Balasubramanian; Broneske, David; Durand, Gabriel Campero; Pionteck, Thilo; Saake, Gunter
In: 2023 IEEE 39th International Conference on Data Engineering workshops - Piscataway, NJ : IEEE, S. 1153-1166
FPGA-integrated bag of little bootstraps accelerator for approximate database query processing
Burtsev, Vitalii; Wilhelm, Martin; Drewes, Anna; Gurumurthy, Balasubramanian; Broneske, David; Pionteck, Thilo; Saake, Gunter
In: Applied Reconfigurable Computing. Architectures, Tools, and Applications , 1st ed. 2023. - Cham : Springer Nature Switzerland ; Palumbo, Francesca, S. 115-130 - ( Lecture notes in computer science; volume 14251)
A flexible and scalable reconfigurable FPGA overlay architecture for data-flow processing
Drewes, Anna; Burtsev, Vitalii; Gurumurthy, Balasubramanian; Wilhelm, Martin; Bronske, David; Saake, Gunter; Pionteck, Thilo
In: 31st IEEE International Symposium on Field-Programmable Custom Computing Machines , 2023 - Piscataway, NJ : IEEE ; Prasanna, Viktor, S. 212
variED - an editor for collaborative, real-time feature modeling
Kuiter, Elias; Krieter, Sebastian; Krüger, Jacob; Saake, Gunter; Leich, Thomas
In: Software Engineering 2023 - Bonn : Köllen, S. 85-86 - (GI-Edition; Proceedings; 332)
Tseitin or not Tseitin? - the impact of CNF transformations on feature-model analyses
Kuiter, Elias; Krieter, Sebastian; Sundermann, Chico; Thüm, Thomas; Saake, Gunter
In: Software Engineering 2023 - Bonn : Köllen, S. 83-84 - (GI-Edition; Proceedings; 332)
An empirical analysis of newcomers’ contributions to software-engineering conferences
Alchokr, Rand; Krüger, Jacob; Shakeel, Yursa; Saake, Gunter; Leich, Thomas
In: Leveraging Generative Intelligence in Digital Libraries: Towards Human-Machine Collaboration , 1st ed. 2023. - Singapore : Springer Nature Singapore ; Goh, Dion H., S. 231-247 - (Lecture notes in computer science; volume 14457)
An intervention strategy for mitigating the prevalence of syntax errors during task exercise engagements
Obionwu, Chukwuka Victor; Harnisch, Christiane; Kalu, Kalu; Broneske, David; Saake, Gunter
In: 2022 International Conference on Engineering and Emerging Technologies (ICEET 2022) , 2022 - [Piscataway, NJ] : IEEE ; Usman, Rehan, insges. 6 S.
Automatic instructional feedback, and a lecture hub system - a strategy towards nurturing the acquisition of a structured engagement behavior
Obionwu, Victor; Toulouse, Vincent; Broneske, David; Saake, Gunter
In: Data Management Technologies and Applications , 1st ed. 2023. - Cham : Springer Nature Switzerland ; Cuzzocrea, Alfredo, S. 219-242 - (Communications in computer and information science; volume 1860)
What happens when two multi-query optimization paradigms combine?
Gurumurthy, Balasubramanian; Bidarkar, Vasudev Raghavendra; Broneske, David; Pionteck, Thilo; Saake, Gunter
In: Advances in Databases and Information Systems , 1st ed. 2023. - Cham : Springer Nature Switzerland ; Abelló, Alberto, S. 74-87 - ( Lecture notes in computer science; volume 13985)
Optical image recognition strategy for keyword extraction and page ranking for slide recommendation system
Obionwu, Chukwuka Victor; Abbas, S. M. Laique; Tiwari, Taruna; Broneske, David; Saake, Gunter
In: International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME 2023) - Piscataway, NJ : IEEE, insges. 6 S.
A strategy for structuring teams collaboration in university course projects
Obionwu, Chukwuka Victor; Karl, Maximilian; Broneske, David; Hawlitschek, Anja; Blockhaus, Paul; Saake, Gunter
In: Proceedings of the 20th International Conference on Smart Business Technologies - [Setúbal, Portugal] : SCITEPRESS - Science and Technology Publications, Lda. ; Hammoudi, Slimane . - 2023, S. 32-42
A strategy for retrospective evaluation of students SQL learning engagements
Obionwu, Chukwuka Victor; Kalu, Oji Kalu; Blockhaus, Paul; Broneske, David; Saake, Gunter
In: International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME 2023) - Piscataway, NJ : IEEE, insges. 7 S.
Data streams - investigating data structures for multivariate asynchronous time series prediction problems
Vox, Christopher; Broneske, David; Shaikat, Istiaque; Saake, Gunter
In: Proceedings of the 12th International Conference on Pattern Recognition Applications and Methods. Volume 1 - [Setúbal] : SCITEPRESS - Science and Technology Publications, Lda. ; Marsico, Maria . - 2023, S. 686-696
Peer-reviewing and submission dynamics around top software-engineering venues - a juniors’ perspective
Alchokr, Rand; Shakeel, Yusra; Saake, Gunter; Leich, Thomas
In: Software Engineering 2023 - Bonn : Köllen, S. 60-69 - (GI-Edition; Proceedings; 332)
Are altmetrics proxies or complements to citations for assessing Impact in computer science?
Shakeel, Yusra; Alchokr, Rand; Krüger, Jacob; Saake, Gunter; Leich, Thomas
In: 2021 ACM/IEEE Joint Conference on Digital Libraries , 2021 - Piscataway, NJ : IEEE, S. 284-286
Begutachteter Zeitschriftenartikel
Novel insights on atomic synchronization for sort-based group-by on GPUs
Gurumurthy, Bala; Broneske, David; Schäler, Martin; Pionteck, Thilo; Saake, Gunter
In: Distributed and parallel databases - New York, NY [u.a.] : Consultants Bureau . - 2023, insges. 23 S.
Leveraging educational blogging to assess the impact of collaboration on knowledge creation
Obionwu, Victor; Broneske, David; Saake, Gunter
In: International Journal of Information and Education Technology - Singapore : IACSIT Press, Bd. 13 (2023), Heft 5, S. 785-791
Decision tree learning in Neo4j on homogeneous and unconnected graph nodes from biological and clinical datasets
Mondal, Rahul; Do, Minh Dung; Ahmed, Nasim Uddin; Walke, Daniel; Micheel, Daniel; Bronske, David; Saake, Gunter; Heyer, Robert
In: BMC medical informatics and decision making - London : BioMed Central, Bd. 22 (2023), Heft S6, Artikel 347, insges. 12 S.
Out-of-the-box library support for DBMS operations on GPUs
Subramanian, Harish Kumar Harihara; Gurumurthy, Balasubramanian; Durand, Gabriel Campero; Broneske, David; Saake, Gunter
In: Distributed and parallel databases - New York, NY [u.a.] : Consultants Bureau, Bd. 41 (2023), Heft 3, S. 489-509
The importance of graph databases and graph learning for clinical applications
Walke, Daniel; Micheel, Daniel; Schallert, Kay; Muth, Thilo; Broneske, David; Saake, Gunter; Heyer, Robert
In: Database - Oxford : Oxford University Press, Bd. 2023 (2023), Artikel baad045, insges. 20 S.
Nicht begutachteter Zeitschriftenartikel
Exploiting structure - a survey and analysis of structures and hardness measures for propositional formulas
Adamy, Rick; Kuiter, Elias; Saake, Gunter
In: Qeios - [London] : Qeios Ltd. . - 2023, Artikel 7U1PFG, insges. 9 S.
2022
Buchbeitrag
Supporting systematic literature reviews using deep-learning-based language models
Alchokr, Rand; Borkar, Manoj; Thotadarya, Sharanya; Saake, Gunter
In: The 1st Intl. Workshop on Natural Language-Based Software Engineering / IEEE/ACM International Workshop on Natural Language-Based Software Engineering , 2022 - [Piscataway, NJ] : IEEE, S. 67-74 [Workshop: IEEE/ACM 1st International Workshop on Natural Language-Based Software Engineering, NLBSE, Pittsburgh, PA, USA, 08. May 2022]
Are altmetrics useful for assessing scientific impact? - a survey
Shakeel, Yusra; Alchokr, Rand; Krüger, Jacob; Leich, Thomas; Saake, Gunter
In: Proceedings of the 14th International Conference on Management of Digital EcoSystems / Damiani , Ernesto - New York,NY,United States : Association for Computing Machinery ; Damiani, Ernesto . - 2022, S. 144-147 [Konferenz: International Conference on Management of Digital EcoSystems, MEDES'22, Venice Italy, October 19 - 21, 2022]
Microblogs - a means for simulating informal learning beyond classrooms
Obionwu, Chukwuka Victor; Broneske, David; Saake, Gunter
In: Proceedings of the 14th International Conference on Education Technology and Computers - New York,NY,United States : Association for Computing Machinery . - 2022, S. 219-225 [Konferenz: 14th International Conference on Education Technology and Computers, Barcelona Spain, October 28 - 30, 2022]
A skill sharing platform for team collaboration and knowledge exchange
Obionwu, Victor; Nürnberger, Anderas; Saake, Gunter
In: WEBIST 2022 - [Setúbal] : SCITEPRESS - Science and Technology Publications, Lda. ; Decker, Stefan, S. 365-372 [Konferenz: 18th International Conference on Web Information Systems and Technologies, WEBIST 2022, Valletta - Malta, October 25 - 27, 2022]
Tseitin or not tseitin? - the impact of CNF transformations on feature-mModel analyses
Kuiter, Elias; Krieter, Sebastian; Sundermann, Chico; Thüm, Thomas; Saake, Gunter
In: Proceedings of the 37th IEEE/ACM International Conference on Automated Software Engineering - New York,NY,United States : Association for Computing Machinery . - 2022, Artikel 110, insges. 13 S. [konferenz: 37th IEEE/ACM International Conference on Automated Software Engineering, ASE '22,Rochester, MI, USA, October 10 - 14, 2022]
Are altmetrics useful for assessing scientific impact - a survey
Shakeel, Yusra; Alchokr, Rand; Krüger, Jacob; Saake, Gunter; Leich, Thomas
In: MEDES 2022 - New York, NY : ACM, insges. 4 S. [Konferenz: 14th International Conference on Management of Digital EcoSystems, Venice, Italy, 20-21 October 2022]
On academic age aspect and discovering the golden age in software engineering
Alchokr, Rand; Krüger, Jacob; Shakeel, Yusra; Saake, Gunter; Leich, Thomas
In: 15th International Conference on Cooperative and Human Aspects of Software Engineering / IEEE/ACM International Conference on Formal Methods in Software Engineering , 2022 - [Piscataway, NJ] : IEEE ; Baldassarre, Maria Teresa, S. 102-106 [Konferenz: 44th International Conference on Software Engineering, Pittsburgh Pennsylvania, May 21 - 29, 2022]
A collaborative learning environment using blogs in a learning management system
Obionwu, Victor; Broneske, David; Saake, Gunter
In: Computer Science and Education in Computer Science , 1st ed. 2022. - Cham : Springer Nature Switzerland ; Zlateva, Tanya, S. 213-232 - (Lecture notes of the institute for computer sciences, social informatics and telecommunications engineering; volume 450) [Konferenz: 18th EAI International Conference on Computer Science and Education in Computer Science, CSECS 2022, virtual event, June 24-27, 2022]
Topic maps as a tool for facilitating collaborative work pedagogy in knowledge management systems
Obionwu, Victor; Broneske, David; Saake, Gunter
In: Proceedings of the 12th International Conference on Information Communication and Management - New York,NY,United States : Association for Computing Machinery . - 2022, S. 50-60 [Konferenz: 12th International Conference on Information Communication and Management, ICICM 2022, London, 13-15 July 2022]
Weighted altmetric scores to facilitate literature analyses
Shakeel, Yusra; Bharti, Abhisar; Leich, Thomas; Saake, Gunter
In: Linking Theory and Practice of Digital Libraries , 1st ed. 2022. - Cham : Springer International Publishing ; Silvello, Gianmaria, S. 459-465 - ( Lecture notes in computer science; volume 13541) [Konferenz: 26th International Conference on Theory and Practice of Digital Libraries, TPDL 2022, Padua, Italy, September 20-23, 2022]
Slide-recommendation system - a strategy for integrating instructional feedback into online exercise sessions
Obionwu, Victor; Toulouse, Vincent; Broneske, David; Saake, Gunter
In: Proceedings of the 11th International Conference on Data Science, Technology and Applications (DATA 2022) , 2022 - Setúbal : SciTePress - Science and Technology Publications, Lda. ; Cuzzocrea, Alfredo, S. 541-548
UCRP-miner - mining patterns that matter
Darrab, Sadeq; Broneske, David; Saake, Gunter
In: 2022 5th International Conference on Data Science and Information Technology (DSIT) , 2022 - New York,NY,United States : Association for Computing Machinery, insges. 7 S. [Konferenz: 5th International Conference on Data Science and Information Technology, DSIT, Shanghai, China, 22-24 July 2022]
Empirical evaluation of BPMN extension language
Lodhi, Azeem; Saake, Gunter; Turowski, Klaus
In: Proceedings of the 14th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management. Volume 3 - SCITEPRESS ; Bernardino, Jorge . - 2022, S. 239-247 [Konferenz: 14th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management, KMIS,Valletta, Malta, 2022]
A closer look into collaborative publishing at software-engineering conferences
Alchokr, Rand; Krüger, Jacob; Shakeel, Yusra; Saake, Gunter; Leich, Thomas
In: Linking Theory and Practice of Digital Libraries , 1st ed. 2022. - Cham : Springer International Publishing ; Silvello, Gianmaria, S. 395-402 - ( Lecture notes in computer science; volume 13541) [Konferenz: 26th International Conference on Theory and Practice of Digital Libraries, TPDL 2022, Padua, Italy, September 20-23, 2022]
A systematic mapping study of security concepts for configurable data storages
May, Richard; Biermann, Christian; Krüger, Jacob; Saake, Gunter; Leich, Thomas
In: Proceedings of the 26th ACM International Systems and Software Product Line Conference - Volume A / Felfernig , Alexander - New York,NY,United States : Association for Computing Machinery ; Felfernig, Alexander . - 2022, S. 108-119 [Konferenz: 26th ACM International Systems and Software Product Line Conference, SPLC '22, Graz , Austria, September 12 - 16, 2022]
Incorporating altmetrics to support selection and assessment of publications during literature analyses
Shakeel, Yusra; Alchokr, Rand; Krüger, Jacob; Leich, Thomas; Saake, Gunter
In: The International Conference on Evaluation and Assessment in Software Engineering 2022 / Staron , Miroslaw - New York,NY,United States : Association for Computing Machinery ; Staron, Miroslaw, S. 180-189 [International Conference on Evaluation and Assessment in Software Engineering 2022, EASE 2022, Gothenburg Sweden, June 13 - 15, 2022]
Peer-reviewing and submission dynamics around top software-engineering venues - a juniors perspective
Alchokr, Rand; Krüger, Jacob; Shakeel, Yusra; Saake, Gunter; Leich, Thomas
In: The International Conference on Evaluation and Assessment in Software Engineering 2022 / Staron , Miroslaw - New York,NY,United States : Association for Computing Machinery ; Staron, Miroslaw, S. 60-69 [International Conference on Evaluation and Assessment in Software Engineering 2022, EASE 2022, Gothenburg Sweden, June 13 - 15, 2022]
OPECUR - an enhanced clustering-based model for discovering unexpected rules
Darrab, Sadeq; Bhardwaj, Priyamvada; Broneske, David; Saake, Gunter
In: Advanced Data Mining and Applications , 1st ed. 2022. - Cham : Springer International Publishing ; Li, Bohan, S. 29-41 - (Lecture notes in computer science; volume 13088) [Konferenz: 17th International Conference, ADMA 2021, Sydney, NSW, Australia, February 2-4, 2022]
Integer time series compression for holistic data analytics in the context of vehicle sensor data
Vox, Christopher; Broneske, David; Piewek, Jan; Sass, Andreas Udo; Saake, Gunter
In: ICCVE 2022 conference proceedings / IEEE ICCVE , 2022 - Piscataway, NJ, USA : IEEE, insges. 7 S. [Konferenz: International Conference on Connected Vehicle and Expo, ICCVE, Lakeland, FL, USA, 07-09 March 2022]
Altmetrics and citation counts - an empirical analysis of the computer science domain
Shakeel, Yusra; Alchokr, Rand; Kruger, J.; Leich, Thomas; Saake, Gunter
In: Proceedings of the 22nd ACM/IEEE Joint Conference on Digital Libraries / Aizawa , Akiko - New York,NY,United States : Association for Computing Machinery ; Aizawa, Akiko . - 2022, S. 1-11
Dissertation
Analytical business process modeling language
Lodhi, Azeem; Saake, Gunter; Turowski, Klaus
In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2022, 1 Online-Ressource (xiv, 170 Seiten, 4,82 MB) [Literaturverzeichnis: Seite 145-170][Literaturverzeichnis: Seite 145-170]
On optimal storage for heterogeneous hybrid transactional/analytical processing
Pinnecke, Marcus; Saake, Gunter
In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2022, 1 Online-Ressource (xiii, 150 Seiten, 6,95 MB) [Literaturverzeichnis: Seite 133-150][Literaturverzeichnis: Seite 133-150]
Efficient interactive and automated product-line configuration
Krieter, Sebastian; Saake, Gunter; Leich, Thomas
In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2022, 1 Online-Ressource (xiv, 159 Seiten, 2,62 MB) [Literaturverzeichnis: Seite 143-159][Literaturverzeichnis: Seite 143-159]
2021
Aufsatz
Fecal metaproteomics reveals reduced gut inflammation and changed microbial metabolism following lifestyle-induced weight loss
Biemann, Ronald; Buß, Enrico; Benndorf, Dirk; Lehmann, Theresa; Schallert, Kay; Püttker, Sebastian; Reichl, Udo; Isermann, Berend; Schneider, Jochen; Saake, Gunter; Heyer, Robert
In: Biomolecules - Basel : MDPI - Vol.11.2021, 5, 726, insgesamt 13 Seiten
An investigation of alternatives to transform protein sequence databases to a columnar index schema
Zoun, Roman; Schallert, Kay; Broneske, David; Trifonova, Ivayla; Chen, Xiao; Heyer, Robert; Benndorf, Dirk; Saake, Gunter
In: Algorithms - Basel : MDPI, Bd. 14 (2021), Heft 2, Artikel 59, insges. 16 S.
Buchbeitrag
Analysis of GPU-libraries for rapid prototyping database operations - a look into library support for database operations
Subramanian, Harish Kumar Harihara; Gurumurthy, Bala; Durand, Gabriel Campero; Broneske, David; Saake, Gunter
In: 2021 IEEE 37th International Conference on Data Engineering workshops / IEEE International Conference on Data Engineering , 2021 - Piscataway, NJ : IEEE, S. 36-41 [Workshop: IEEE 37th International Conference on Data Engineering Workshops, ICDEW, Chania, Greece, 19-22 April 2021]
MaxRI - a method for discovering maximal rare itemsets
Darrab, Sadeq; Broneske, David; Saake, Gunter
In: 2021 4th International Conference on Data Science and Information Technology - New York,NY,United States : Association for Computing Machinery, S. 334-341 [Konferenz: 4th International Conference on Data Science and Information Technology, DSIT 2021, Shanghai, China, July 23-25, 2021]
Iterative development and changing requirements - drivers of variability in an industrial system for veterinary anesthesia
Kuiter, Elias; Krüger, Jacob; Saake, Gunter
In: Proceedings of the 25th ACM International Systems and Software Product Line Conference - Volume B / Mousavi , Mohammad Reza - New York,NY,United States : Association for Computing Machinery ; Mousavi, Mohammad Reza . - 2021, S. 113-122 [Konferenz: 25th ACM International Systems and Software Product Line Conference, SPLC '21, Leicester, United Kindom, September 6 - 11, 2021]
An investigation of atomic synchronization for sort-based group-by aggregation on GPUs
Gurumurthy, Bala; Broneske, David; Schäler, Martin; Pionteck, Thilo; Saake, Gunter
In: 2021 IEEE 37th International Conference on Data Engineering workshops / IEEE International Conference on Data Engineering , 2021 - Piscataway, NJ : IEEE, S. 48-53 [Workshop: IEEE 37th International Conference on Data Engineering Workshops, ICDEW, Chania, Greece, 19-22 April 2021]
Begutachteter Zeitschriftenartikel
In-depth analysis of OLAP query performance on heterogeneous hardware
Broneske, David; Drewes, Anna; Gurumurthy, Bala; Hajjar, Imad; Pionteck, Thilo; Saake, Gunter
In: Datenbank-Spektrum - Berlin : Springer, Bd. 21 (2021), S. 133-143
Integrated cycles for urban biomass as a strategy to promote a CO2-neutral society - a feasibility study
Meinusch, Nicole; Kramer, Susanne; Körner, Oliver; Wiese, Jürgen; Seick, Ingolf; Beblek, Anita; Berges, Regine; Illenberger, Bernhard; Illenberger, Marco; Uebbing, Jennifer; Wolf, Maximilian; Saake, Gunter; Benndorf, Dirk; Reichl, Udo; Heyer, Robert
In: Sustainability - Basel : MDPI, Bd. 13 (2021), Heft 17, Artikel 9505, insges. 22 S.
SQLValidator - an online student playground to learn SQL
Obionwu, Victor; Broneske, David; Hawlitschek, Anja; Köppen, Veit; Saake, Gunter
In: Datenbank-Spektrum - Berlin : Springer, Bd. 21 (2021), S. 73-81
Towards multi-purpose main-memory storage structures - exploiting sub-space distance equalities in totally ordered data sets for exact knn queries
Schäler, Martin; Tex, Christine; Köppen, Veit; Broneske, David; Saake, Gunter
In: Information systems - Oxford [u.a.] : Pergamon Press, Bd. 101 (2021), Artikel 101791, insges. 13 S.
Modern Applications and Challenges for Rare Itemset Mining
Darrab, Sadeq; Broneske, David; Saake, Gunter
In: International Journal of Machine Learning and Computing - Singapore : International Association of Computer Science and Information Technology Press (IACSIT), Bd. 11 (2021), Heft 3, S. 208-218
variED - an editor for collaborative, real-time feature modeling
Kuiter, Elias; Krieter, Sebastian; Krüger, Jacob; Saake, Gunter; Leich, Thomas
In: Empirical software engineering - Dordrecht [u.a.] : Springer Science + Business Media B.V, Bd. 26 (2021), Artikel 24, insges. 47 S.
Dissertation
Understanding the re-engineering of variant-rich systems - an empirical work on economics, knowledge, traceability, and practices
Krüger, Jacob; Saake, Gunter; Leich, Thomas
In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2021, 1 Online-Ressource (xxvi, 242 Seiten, 3,17 MB) [Literaturverzeichnis: Seite 199-242][Literaturverzeichnis: Seite 199-242]
Untersuchungen zur Datenqualität und Nutzerakzeptanz von Forschungsinformationssystemen
Azeroual, Otmane; Saake, Gunter; Arndt, Hans-Knud
In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2021, 1 Online-Ressource (XVI, 185 Seiten, 16,82 MB) [Literaturverzeichnis: Seite 149-170][Literaturverzeichnis: Seite 149-170]
2020
Buchbeitrag
Combining two worlds - MonetDB with multi-dimensional index structure support to efficiently query scientific data
Blockhaus, Paul; Broneske, David; Schäler, Martin; Köppen, Veit; Saake, Gunter
In: Scientific and Statistical Database Management - New York, NY : ACM ; Pourabbas, Elaheh - 2020, Art. 29, 4 Seiten [Konferenz: 32nd International Conference on Scientific and Statistical Database Management, SSDBM 2020, Vienna, Austria, 7-9 July 2020]
Optimising operator sets for analytical database processing on FPGAs
Drewes, Anna; Joseph, Jan Moritz; Gurumurthy, Balasubramanian; Broneske, David; Saake, Gunter; Pionteck, Thilo
In: Applied Reconfigurable Computing. Architectures, Tools, and Applications , 1st ed. 2020. - Cham : Springer International Publishing, S. 30-44 - (Lecture Notes in Computer Science; volume 12083) [Symposium: 16th International Applied Recongurable Computing Symposium, ARC, Toledo, Spain, April 1-3, 2020]
Spread the good around! - information propagation in schema matching and entity resolution for heterogeneous data
Durand, Gabriel Campero; Daur, Anshu; Kumar, Vinayak; Suman, Shivalika; Aftab, Altaf Mohammed; Karim, Sajad; Diwesh, Prafulla; Hegde, Chinmaya; Setlur, Disha; Ismail, Syed Md; Broneske, David; Saake, Gunter
In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2726 (2020), insges. 5 S. [Workshop: 2nd International Workshop on Challenges and Experiences from Data Integration to Knowledge Graphs, Tokyo, Japan, August 31, 2020]
Analysis of breast cancer detection using different machine learning techniques
Mohammed, Siham; Darrab, Sadeq; Noaman, Salah; Saake, Gunter
In: Data Mining and Big Data , 1st ed. 2020. - Singapore : Springer Singapore ; Tan, Ying, S. 108-117 - ( Communications in Computer and Information Science; volume 1234) [Konferenz: 5th International Conference, DMBD 2020, Belgrade, Serbia, July 1420, 2020]
RPP algorithm - a method for discovering interesting rare itemsets
Darrab, Sadeq; Broneske, David; Saake, Gunter
In: Data Mining and Big Data , 1st ed. 2020. - Singapore : Springer Singapore ; Tan, Ying, S. 14-25 - ( Communications in Computer and Information Science; volume 1234) [Konferenz: 5th International Conference, DMBD 2020, Belgrade, Serbia, July 1420, 2020]
EXtracting product lines from vAriaNTs (EXPLANT)
Krüger, Jacob; Krieter, Sebastian; Saake, Gunter; Leich, Thomas
In: Proceedings of the 14th International Working Conference on Variability Modelling of Software-Intensive Systems / Cordy , Maxime - New York,NY,United States : Association for Computing Machinery ; Cordy, Maxime - 2020, article 13, 2 Seiten [Koinferenz: 14th International Working Conference on Variability Modelling of Software-Intensive Systems, VAMOS '20, Magdeburg, 05. - 07. February 2020]
Establishing key performance indicators for measuring software-development processes at a large organization
Sürücü, Cem; Song, Bianying; Krüger, Jacob; Saake, Gunter; Leich, Thomas
In: ESEC/FSE 2020 - New York, NY : ACM, S. 1331-1341 [28th Joint European Software Engineering Conferenceand Symposium on the Foundations of Software Engineering, ESEC/FSE, Virtual, USA, November 8-13, 2020]
Effects of explicit feature traceability on program comprehension
Krüger, Jacob; Çalıklı, Gül; Berger, Thorsten; Leich, Thomas; Saake, Gunter
In: Software Engineering 2020 - Bonn : Digitale Bibliothek der Gesellschaft für Informatik e.V. (GI) ; Felderer, Michael *1978-*, S. 79-80 [Tagung: Software Engineering 2020, Innsbruck, Austria, 24.-28. Februar 2020]
He..ro DB - a concept for parallel data processing on heterogeneous hardware
Müller, Michael; Leich, Thomas; Pionteck, Thilo; Saake, Gunter; Teubner, Jens; Spinczyk, Olaf
In: Architecture of Computing Systems – ARCS 2020 - 33rd International Conference, Aachen, Germany, May 25–28, 2020, Proceedings , 1st ed. 2020. - Cham : Springer International Publishing ; Brinkmann, André., S. 82-96 - ( Lecture notes in computer science; 12155) [Konferenz: 33rd International Conference on Architecture of Computing Systems, ARCS 2020, Aachen, Germany, May 25-28, 2020]
Begutachteter Zeitschriftenartikel
GridTables - a One-Size-Fits-Most H2TAP data store : vision and concept
Pinnecke, Marcus; Campero Durand, Gabriel; Broneske, David; Zoun, Roman; Saake, Gunter
In: Datenbank-Spektrum - Berlin : Springer, Bd. 20 (2020), Heft 1, S. 43-56
Data driven concept for sensor data adaptation of electrochemical sensors for mobile air quality measurements
Esatbeyoǧlu, Enes; Cassebaum, Oliver; Arras, Florian; Saake, Gunter
In: Journal of the Electrochemical Society - Bristol : IOP Publishing - JES - Volume 167 (2020), issue 4, article 047518, 8 Seiten
Search. review. repeat? - an empirical study of threats to replicating SLR searches
Krüger, Jacob; Lausberger, Christian; Nostitz-Wallwitz, Ivonne; Saake, Gunter; Leich, Thomas
In: Empirical software engineering - Dordrecht [u.a.] : Springer Science + Business Media B.V, Bd. 25 (2020), Heft 1, S. 627-677
Data quality as a critical success factor for user acceptance of research information systems
Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad; Schöpfel, Joachim
In: Data - Basel : MDPI - Volume 5 (2020), issue 2, article 35
Dissertation
Analytic cloud platform for near real-time mass spectrometry processing on the fast data architecture
Zoun, Roman; Saake, Gunter; Benndorf, Dirk
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2020, xiii, 132 Seiten [Literaturverzeichnis: Seite 117-132][Literaturverzeichnis: Seite 117-132]
Measuring and improving code quality in highly configurable software systems
Fenske, Wolfram; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2020, xviii, 222 Seiten [Literaturverzeichnis: Seite 193-221][Literaturverzeichnis: Seite 193-221]
Towards efficient and effective entity resolution for high-volume and variable data
Chen, Xiao; Saake, Gunter; Nürnberger, Andreas
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2020, xviii, 148 Seiten [Literaturverzeichnis: Seite 129-147][Literaturverzeichnis: Seite 129-147]
Artikel in Kongressband
When vectorwise meets hyper, pipeline breakers become the moderator
Gurumurthy, Balasubramanian; Hajjar, Imad; Broneske, David; Pionteck, Thilo; Saake, Gunter
In: ADMS 2020 - Tokyo
Nicht begutachteter Zeitschriftenartikel
Dependency-aware parallel enumeration for join-order optimization - search for the best design options
Meister, Andreas; Saake, Gunter
In: Magdeburg: Fakultät für Informatik, Otto-von-Guericke-Universität Magdeburg, 2020, 1 Online-Ressource (34 Seiten, 0,52 MB) - (Technical Report; Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik; 01-2020)
GPU-accelerated dynamic programming for join-order optimization
Meister, Andreas; Saake, Gunter
In: Magdeburg: Fakultät für Informatik, Otto-von-Guericke-Universität Magdeburg, 2020, 1 Online-Ressource (28 Seiten, 0,6 MB) - (Technical Report; Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik; 02-2020)
2019
Aufsatz
Metaproteome analysis reveals that syntrophy, competition, and phage-host interaction shape microbial communities in biogas plants
Heyer, Robert; Schallert, Kay; Siewert, C.; Kohrs, F.; Greve, J.; Maus, I.; Klang, J.; Klocke, M.; Heiermann, M.; Hoffmann, Michael; Püttker, Sebastian; Calusinska, M.; Zoun, Roman; Saake, Gunter; Benndorf, Dirk; Reichl, Udo
In: Microbiome - London : Biomed Central, Bd. 7 (2019), Artikel 69, insges. 17 S.
Buchbeitrag
Understanding how programmers forget
Krüger, Jacob; Wiemann, Jens; Fenske, Wolfram; Saake, Gunter; Leich, Thomas
In: Software Engineering und Software Management 2019 , 2019 - Bonn : Gesellschaft für Informatik e.V. ; Becker, Steffen *1977-*, S. 85-86 [Konferenz: Software Engineering and Software Management, SE/SWM 2019, Stuttgart, Germany, February 18-22, 2019]
Indicating studies' quality based on open data in digital libraries
Shakeel, Yusra; Krüger, Jacob; Saake, Gunter; Leich, Thomas
In: Business Information Systems Workshops - Cham : Springer International Publishing ; Abramowicz, Witold *1954-* . - 2019, S. 579-590 - (Lecture Notes in Business Information Processing; 339) [Workshop: International Workshops, BIS 2018, Berlin, Germany, July 18-20, 2018]
Program comprehension and developers' memory
Krüger, Jacob; Wiemann, Jens; Fenske, Wolfram; Saake, Gunter; Leich, Thomas
In: Informatik 2019 - Bonn : Gesellschaft für Informatik e.V. ; David, Klaus *1961-*, S. 99-100 - (GI-Edition; Lecture notes in informatics; Proceedings$l294)
Protobase - it's about time for Backend/Database co-design
Pinnecke, Marcus; Campero Durand, Gabriel; Zoun, Roman; Broneske, David; Saake, Gunter
In: Datenbanksysteme für Business, Technologie und Web / BTW , 2019 - Bonn : Gesellschaft für Informatik e.V. ; Grust, Torsten, S. 515-518 - (GI-Edition - Lecture notes in informatics; Proceedings$l289) [Fachtagung: 18. Fachtagung "Datenbanksysteme für Business, Technologie und Web", BTW 2019, Rostock, 4.-8. März 2019]
GridFormation - towards self-driven online data partitioning using reinforcement learning
Campero Durand, Gabriel; Pinnecke, Marcus; Piriyev, Rufat; Mohsen, Mahmoud; Broneske, David; Saake, Gunter; Sekeran, Maya S.; Rodriguez, Fabián; Balami, Laxmi
In: Proceedings of the First International Workshop on Exploiting Artificial Intelligence Techniques for Data Management - New York, NY : ACM - 2018, Artikel No. 1 [Workshop: First International Workshop on Exploiting Artificial Intelligence Techniques for Data Management , aiDM'18, Houston, TX, USA, June 10, 2018]
Automated vertical partitioning with deep reinforcement learning
Campero Durand, Gabriel; Piriyev, Rufat; Pinnecke, Marcus; Broneske, David; Gurumurthy, Balasubramanian; Saake, Gunter
In: New Trends in Databases and Information Systems , 1st ed. 2019 - Cham : Springer ; Welzer, Tatjana, S. 126-134 - (Communications in Computer and Information Science; volume 1064) [Konferenz: European Conference on Advances in Databases and Information Systems, ADBIS 2019, Bled, Slovenia, September 8-11, 2019]
Codd's world - topics and their evolution in the database community publication graph
Pawar, Rutuja Shivraj; Sobhgol, Sepideh; Campero Durand, Gabriel; Pinnecke, Marcus; Broneske, David; Saake, Gunter
In: Proceedings of the 31st GI-Workshop Grundlagen von Datenbanken , 2019 - Aachen, Germany : RWTH Aachen, S. 74-81 - (CEUR workshop proceedings; vol-2367) [Workshop: 31st GI-Workshop Grundlagen von Datenbanken, Saarburg, Germany, June 11-14, 2019]
The best of both worlds - combining hand-tuned and word-embedding-based similarity measures for entity resolution
Chen, Xiao; Campero Durand, Gabriel; Zoun, Roman; Broneske, David; Li, Yang; Saake, Gunter
In: Datenbanksysteme für Business, Technologie und Web / BTW , 2019 - Bonn : Gesellschaft für Informatik e.V. ; Grust, Torsten, S. 215-224 - (GI-Edition - Lecture notes in informatics; Proceedings$l289) [Fachtagung: 18. Fachtagung "Datenbanksysteme für Business, Technologie und Web", BTW 2019, Rostock, 4.-8. März 2019]
Heterogeneous committee-based active learning for entity resolution (HeALER)
Chen, Xiao; Xu, Yinlong; Broneske, David; Durand Campero, Gabriel; Zoun, Roman; Saake, Gunter
In: Advances in Databases and Information Systems , 1st ed. 2019 - Cham : Springer ; Welzer, Tatjana, S. 69-85 - (Lecture Notes in Computer Science; volume 11695) [Konferenz: European Conference on Advances in Databases and Information Systems, ADBIS 2019, Bled, Slovenia, September 8-11, 2019]
Efficient transformation of protein sequence databases to columnar index schema
Zoun, Roman; Schallert, Kay; Broneske, David; Trifonova, Ivayla; Chen, Xiao; Heyer, Robert; Benndorf, Dirk; Saake, Gunter
In: Database and Expert Systems Applications , 1st ed. 2019 - Cham : Springer ; Anderst-Kotsis, Gabriele, S. 67-72 - (Communications in Computer and Information Science; volume 1062) [Konferenz: International Conference on Database and Expert Systems Applications, DEXA 2019, Linz, Austria, August 26-29, 2019]
Context selection in a heterogeneous legal ontology
Wehnert, Sabine; Fenske, Wolfram; Saake, Gunter
In: Datenbanksysteme für Business, Technologie und Web - Bonn : Gesellschaft für Informatik e.V. ; Grust, Torsten . - 2019, S. 129-134 - (GI-Edition - Lecture notes in informatics; Proceedings$l289) [Fachtagung: 18. Fachtagung "Datenbanksysteme für Business, Technologie und Web", BTW 2019, Rostock, 4.-8. März 2019]
MSDataStream - connecting a bruker mass spectrometer to the internet
Zoun, Roman; Schallert, Kay; Broneske, David; Fenske, Wolfram; Pinnecke, Marcus; Heyer, Robert; Brehmer, Sven; Benndorf, Dirk; Saake, Gunter
In: Datenbanksysteme für Business, Technologie und Web / BTW , 2019 - Bonn : Gesellschaft für Informatik e.V. ; Grust, Torsten, S. 507-510 - (GI-Edition - Lecture notes in informatics; Proceedings$l289) [Fachtagung: 18. Fachtagung "Datenbanksysteme für Business, Technologie und Web", BTW 2019, Rostock, 4.-8. März 2019]
Quality of research information in RIS databases - a multidimensional approach
Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad; Schöpfel, Joachim
In: Business Information Systems - Cham : Springer ; Abramowicz, Witold . - 2019, S. 337-349 - ( Lecture Notes in Business Information Processing; volume 353) [Konferenz: 22nd International Conference on Business Information Systems, BIS 2019, Seville, Spain, June 26-28, 2019]
Effects of explicit feature traceability on program comprehension
Krüger, Jacob; Çalıklı, Gül; Berger, Thorsten; Leich, Thomas; Saake, Gunter
In: Proceedings of the 2019 27th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering - New York, NY : ACM, S. 338-349 [Konferenz: 27th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering, ESEC/FSE 2019, Tallinn, Estonia, August 26 - 30, 2019]
Mutation operators for feature-oriented software product lines
Krüger, Jacob; Al-Hajjaji, Mustafa; Leich, Thomas; Saake, Gunter
In: Proceedings of the 22nd International Systems and Software Product Line Conference - Volume A - New York, NY : ACM ; Berger, Thorsten . - 2019, S. 12 [Konferenz: 23rd International Systems and Software Product Line Conference, SPLC '19, Paris, France, September 09 - 13, 2019]
Foundations of collaborative, real-time feature modeling
Kuiter, Elias; Krieter, Sebastian; Krüger, Jacob; Leich, Thomas; Saake, Gunter
In: Proceedings of the 22nd International Systems and Software Product Line Conference - Volume A - New York, NY : ACM ; Berger, Thorsten . - 2019, S. 257-264 [Konferenz: 23rd International Systems and Software Product Line Conference, SPLC '19, Paris, France, September 09 - 13, 2019]
Begutachteter Zeitschriftenartikel
ETL best practices for data quality checks in RIS databases
Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad
In: Informatics - Basel : MDPI - Volume 6, issue 1, article 10, insgesamt 13 Seiten
Automated selection and quality assessment of primary studies - a systematic literature review
Shakeel, Yusra; Krüger, Jacob; Nostitz-Wallwitz, Ivonne; Saake, Gunter; Leich, Thomas
In: Journal of data and information quality - New York, NY : ACM - Volume 12, issue 1 (2019), article no. 4, insgesamt 26 Seiten
A robust and universal metaproteomics workflow for research studies and routine diagnostics within 24 h using phenol extraction, FASP digest, and the MetaProteomeAnalyzer
Heyer, Robert; Schallert, Kay; Büdel, Anja; Zoun, Roman; Dorl, Sebastian; Behne, Alexander; Kohrs, Fabian; Püttker, Sebastian; Siewert, Corina; Muth, Thilo; Saake, Gunter; Reichl, Udo; Benndorf, Dirk
In: Frontiers in microbiology - Lausanne : Frontiers Media - 10 (2019), article 1883, insgesamt 20 Seiten
Efficient evaluation of multi-column selection predicates in main-memory
Broneske, David; Köppen, Veit; Saake, Gunter; Schaler, Martin
In: IEEE transactions on knowledge and data engineering / Institute of Electrical and Electronics Engineers - Piscataway, NJ : IEEE Service Center, Bd. 31 (2019), Heft 7, S. 1296-1311
Dissertation
Multi-dimensional server consolidation for commercial off-the-shelf enterprise applications using shared performance counters
Müller, Hendrik; Turowski, Klaus; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, xvi, 190 Seiten [Literaturverzeichnis: Seite 167-187][Literaturverzeichnis: Seite 167-187]
Variational debugging - understanding differences among executions
Meinicke, Jens; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, x, 100 Seiten [Literaturverzeichnis: Seite 85-100][Literaturverzeichnis: Seite 85-100]
Accelerating mono and multi-column selection predicates in modern main-memory database systems
Broneske, David; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, xx, 138 Seiten [Literaturverzeichnis: Seite 125-138][Literaturverzeichnis: Seite 125-138]
Habilitation
Analysis techniques to support the evolution of variant-rich software systems
Schulze, Sandro; Saake, Gunter
In: Magdeburg, Habilitationsschrift Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, xvi, 70 Seiten [Literaturverzeichnis: Seite 65-70][Literaturverzeichnis: Seite 65-70]
Wissenschaftliche Monographie
An evaluation of deep hashing for high-dimensional similarity search on embedded data
Pawar, Rutuja Shivraj; Saake, Gunter; Durand Campero, Gabriel
In: Magdeburg: Universitätsbibliothek, Masterarbeit Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2019, 1 Online-Ressource (iv, 156 Seiten, 12,73 MB) [Literaturverzeichnis: Seite 137-156; Matriculation No. 220051]
Nicht begutachteter Zeitschriftenartikel
Threshold-based retrieval and textual entailment detection on legal bar exam questions
Wehnert, Sabine; Hoque, Sayed Anisul; Fenske, Wolfram; Saake, Gunter
In: De.arxiv.org - [S.l.] : Arxiv.org - 2019, Artikel 1905.13350, insgesamt 9 Seiten
MStream: proof of concept of an analytic cloud platform for near-real-time diagnostics using mass spectrometry data
Zoun, Roman; Schallert, Kay; Broneske, David; Falkenberg, Sören; Heyer, Robert; Wehnert, Sabine; Brehmer, Sven; Benndorf, Dirk; Saake, Gunter
In: Magdeburg: Fakultät für Informatik, Otto-von-Guericke-Universität Magdeburg, 2019, 1 Online-Ressource (11 ungezählte Seiten, 1,08 MB) - (Technical Report; Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik; 002-2019)
Finding the best design options for the parallel dynamic programming approach with skip vector arrays for join-order optimization
Meister, Andreas; Saake, Gunter
In: Magdeburg: Fakultät für Informatik, Otto-von-Guericke-Universität Magdeburg, 2019, 1 Online-Ressource (29 Seiten, 0,33 MB) - (Technical Report; Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik; 01-2019)
2018
Buchbeitrag
Forward secure searchable symmetric encryption
Niaz, Muhammad Saqib; Saake, Gunter
In: 2017 12th International Conference for Internet Technology and Secured Transactions (ICITST) , 2017 - Piscataway, NJ : IEEE . - 2018, S. 49-54 [Konferenz: 12th International Conference for Internet Technology and Secured Transactions, ICITST 2017, Cambridge, UK, 11-14 December 2017]
Towards automated test refactoring for software product lines
Krüger, Jacob; Al-Hajjaji, Mustafa; Schulze, Sandro; Saake, Gunter; Leich, Thomas
In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM ; Berger, Thorsten . - 2018, S. 143-148 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]
Streaming FDR calculation for protein identification
Zoun, Roman; Schallert, Kay; Janki, Atin; Ravindran, Rohith; Durand Campero, Gabriel; Fenske, Wolfram; Broneske, David; Heyer, Robert; Benndorf, Dirk; Saake, Gunter
In: New Trends in Databases and Information Systems - Cham : Springer International Publishing ; Benczúr, András . - 2018, S. 80-87 - (Communications in Computer and Information Science; 909) [Konferenz: European Conference on Advances in Databases and Information Systems, ADBIS, Budapest, Hungary, September, 2-5, 2018]
Memory management strategies in CPU/GPU database systems - a survey
Arefyeva, Iya; Broneske, David; Durand Campero, Gabriel; Pinnecke, Marcus; Saake, Gunter
In: Beyond Databases, Architectures and Structures. Facing the Challenges of Data Proliferation and Growing Variety - Cham : Springer International Publishing ; Kozielski, Stanisław . - 2018, S. 128-142 - (Communications in Computer and Information Science; 928) [Konferenz: 14th International Conference, BDAS 2018, Poznan, Poland, September 18-20, 2018]
SIMD acceleration for main-memory index structures - a survey
Wallewein-Eising, Marten; Broneske, David; Saake, Gunter
In: Beyond Databases, Architectures and Structures. Facing the Challenges of Data Proliferation and Growing Variety - Cham : Springer International Publishing . - 2018, S. 105-119 - (Communications in Computer and Information Science; 928) [Konferenz: 14th International Conference, BDAS 2018, Poznan, Poland, September 18-20, 2018]
(Automated) literature analysis - threats and experiences
Shakeel, Yusra; Krüger, Jacob; Nostitz-Wallwitz, Ivonne; Lausberger, Christian; Durand Campero, Gabriel; Saake, Gunter; Leich, Thomas
In: Proceedings of the International Workshop on Software Engineering for Science - New York, NY : ACM . - 2018, S. 20-27 [Workshop: International Workshop on Software Engineering for Science, SE4Science '18, Gothenburg, Sweden, June 02, 2018]
Streamlining processes for digitalization
Lodhi, A.; Köppen, Veit; Saake, Gunter; Turowski, Klaus
In: 11th IADIS International Conference Information Systems 2018 , 2018 - Red Hook, NY : Curran Associates, Inc., S. 95-104 [Konferenz: 11th International Conference on Information Systems, IADIS, Lisbon, Portugal, 14-16 April 2018]
Performance comparison of three spark-based implementations of parallel entity resolution
Chen, Xiao; Rapuru, Kirity; Durand, Gabriel; Schallehn, Eike; Saake, Gunter
In: Database and Expert Systems Applications - Cham : Springer International Publishing . - 2018, S. 76-87 - (Communications in Computer and Information Science; 903) [Workshop: 3. International Workshop on Big Data Management in Cloud Systems, BDMICS, Regensburg, Germany, 03. - 06.09.2018]
Protein identification as a suitable application for fast data architecture
Zoun, Roman; Durand, Gabriel; Schallert, Kay; Patrikar, Apoorva; Broneske, David; Fenske, Wolfram; Heyer, Robert; Benndorf, Dirk; Saake, Gunter
In: Database and Expert Systems Applications - Cham : Springer International Publishing . - 2018, S. 168-178 - (Communications in Computer and Information Science; 903) [Workshop: 9. International Workshop on Biological Knowledge Discovery from Data, BIOKDD, Regensburg, Germany, 03. - 06.09.2018]
SIMD vectorized hashing for grouped aggregation
Gurumurthy, Balasubramanian; Broneske, David; Pinnecke, Marcus; Durand Campero, Gabriel; Saake, Gunter
In: Advances in databases and information systems / ADBIS , 2018 - Cham : Springer International Publishing ; Benczúr, András, S. 113-126 - (Lecture Notes in Computer Science; 11019) [Konferenz: 22nd European Conference, ADBIS 2018, Budapest, Hungary, September 2-5, 2018]
Visual guidance for product line configuration using recommendations and non-functional properties
Pereira, Juliana Alves; Martinez, Jabier; Gurudu, Hari Kumar; Krieter, Sebastian; Saake, Gunter
In: Proceedings of the 33rd Annual ACM Symposium on Applied Computing 2018 - New York, NY : ACM, S. 2058-2065 [Symposium: 33rd Annual ACM Symposium on Applied Computing, SAC '18, Pau, France, April 09 - 13, 2018]
Adaptive data processing in heterogeneous hardware systems
Gurumurthy, Balasubramanian; Drewes, Tobias; Broneske, David; Saake, Gunter; Pionteck, Thilo
In: CEUR workshop proceedings - Aachen : RWTH, Bd. 2126 (2018), S. 10-15 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]
Applicability of security measures in a wireless sensor network use case
Leuckert, Martin; Mertens, Peter R.; Saake, Gunter
In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2126 (2018), S. 47-52 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]
Piecing together large puzzles, efficiently - towards scalable loading into graph database systems
Campero Durand, Gabriel; Ma, Jingy; Pinnecke, Marcus; Saake, Gunter
In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2126 (2018), S. 95-100 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]
Connecting X! Tandem to a database management system
Janki, Atin; Zoun, Roman; Schallert, Kay; Ravindran, Rohith; Broneske, David; Fenske, Wolfram; Heyer, Robert; Benndorf, Dirk; Saake, Gunter
In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2126 (2018), S. 77-82 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]
Untersuchungen zur Konzeptentwicklung für eine Verbesserung der Datenqualität in Forschungsinformationssystemen - Investigations of concept development to improve data quality in research information systems
Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad
In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 2126 (2018), S. 29-34 [Workshop: 30th GI-Workshop Grundlagen von Datenbanken, Wuppertal, Germany, May 22-25, 2018]
Extracting features from requirements - achieving accuracy and automation with neural networks
Li, Yang; Schulze, Sandro; Saake, Gunter
In: 25th IEEE International Conference on Software Analysis, Evolution and Reengineering - Piscataway, NJ : IEEE ; IEEE International Conference on Software Analysis, Evolution and Reengineering (25.:2018), S. 477-481 [Konferenz: 25th IEEE International Conference on Software Analysis, Evolution and Reengineering, SANER 2018, Campobasso, Italy, 20-23 March 2018]
Do you remember this source code?
Krüger, Jacob; Wiemann, Jens; Fenske, Wolfram; Saake, Gunter; Leich, Thomas
In: Proceedings of the 40th International Conference on Software Engineering - New York, NY : ACM . - 2018, S. 764-775 [Konferenz: 40th International Conference on Software Engineering, ICSE '18, Gothenburg, Sweden, May 27 - June 03. 2018]
Propagating configuration decisions with modal implication graphs
Krieter, Sebastian; Thüm, Thomas; Schulze, Sandro; Schröter, Reimar; Saake, Gunter
In: Proceedings of the 40th International Conference on Software Engineering - New York, NY : ACM . - 2018, S. 898-909 [Konferenz: 40th International Conference on Software Engineering, ICSE '18, Gothenburg, Sweden, May 27 - June 03. 2018]
A context-aware recommender system for extended software product line configurations
Pereira, Juliana Alves; Schulze, Sandro; Krieter, Sebastian; Ribeiro, Márcio; Saake, Gunter
In: Proceedings of the 12th International Workshop on Variability Modelling of Software-intensive Systems - New York : ACM . - 2018, S. 97-104 [Workshop: 12th International Workshop on Variability Modelling of Software-intensive Systems, VAMOS 2018, Madrid, Spain, February 07-09, 2018]
N-dimensional tensor factorization for self-configuration of software product lines at runtime
Pereira, Juliana Alves; Schulze, Sandro; Figueiredo, Eduardo; Saake, Gunter
In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM . - 2018, S. 87-97 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]
Reverse engineering variability from requirement documents based on probabilistic relevance and word embedding
Li, Yang; Schulze, Sandro; Saake, Gunter
In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM . - 2018, S. 121-131 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]
Exploring large scholarly networks with hermes
Durand Campero, Gabriel; Janardhana, Anusha; Pinnecke, Marcus; Shakeel, Yusra; Krüger, Jacob; Leich, Thomas; Saake, Gunter
In: Advances in Database Technology - EDBT 2018 , 2018 - Konstanz, Germany : University of Konstanz, University Library ; Böhlen, Michael *1964-*, S. 650-653 [Konferenz: 21st International Conference on Extending Database Technology, EDBT, Vienna, Austria, March 26-29, 2018]
Apo-games - a case study for reverse engineering variability from cloned Java variants
Krüger, Jacob; Fenske, Wolfram; Thüm, Thomas; Aporius, Dirk; Saake, Gunter; Leich, Thomas
In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM ; Berger, Thorsten . - 2018, S. 251-256 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]
Getting rid of clone-and-own - moving to a software product line for temperature monitoring
Kuiter, Elias; Krüger, Jacob; Krieter, Sebastian; Leich, Thomas; Saake, Gunter
In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM ; Berger, Thorsten . - 2018, S. 179-189 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]
Exploring spark-SQL-based entity resolution using the persistence capability
Chen, Xiao; Zoun, Roman; Schallehn, Eike; Mantha, Sravani; Rapuru, Kirity; Saake, Gunter
In: Beyond Databases, Architectures and Structures. Facing the Challenges of Data Proliferation and Growing Variety - Cham : Springer International Publishing ; Kozielski, Stanisław . - 2018, S. 3-17 - (Communications in Computer and Information Science; 928) [Konferenz: 14th International Conference, BDAS 2018, Poznan, Poland, September 18-20, 2018]
PClocator - a tool suite to automatically identify configurations for code locations
Kuiter, Elias; Krieter, Sebastian; Krüger, Jacob; Ludwig, Kai; Leich, Thomas; Saake, Gunter
In: Proceedings of the 22nd International Software Product Line Conference. Volume 1 - New York : ACM ; Berger, Thorsten . - 2018, S. 284-288 [Konferenz: 22nd International Software Product Line Conference, SPLC '18, Gothenburg, Sweden, September 10 - 14, 2018]
Begutachteter Zeitschriftenartikel
A systematic literature review on the semi-automatic configuration of extended product lines
Ochoa, Lina; González-Rojas, Oscar; Juliana, Alves Pereira; Castro, Harold; Saake, Gunter
In: The journal of systems and software - Amsterdam [u.a.] : Elsevier, Bd. 144 (2018), S. 511-532
Personalized recommender systems for product-line configuration processes
Pereira, Juliana Alves; Matuszyk, Pawel; Krieter, Sebastian; Spiliopoulou, Myra; Saake, Gunter
In: Computer languages, systems and structures - Amsterdam [u.a.] : Elsevier Science . - 2018, insges. 21 S.
Analyzing data quality issues in research information systems via data profiling
Azeroual, Otmane; Saake, Gunter; Schallehn, Eike
In: International journal of information management - Kidlington : Elsevier : Pergamon, Bd. 41 (2018), S. 50-56
Errata for "Analysis of two existing and one new dynamic programming algorithm for the generation of optimal bushy join trees without cross products"
Meister, Andreas; Moerkotte, Guido; Saake, Gunter
In: Proceedings of the VLDB Endowment - [New York, NY] : Assoc. of Computing Machinery, Bd. 11 (2018), Heft 10, S. 1069-1070
Data quality measures and data cleansing for research information systems
Azeroual, Otmane; Saake, Gunter; Abuosba, Mohammad
In: Journal of digital information management - Chennai : Foundation, Bd. 16 (2018), Heft 1, S. 12-21
Cooking DBMS operations using granular primitives - an overview on a primitive-based RDBMS query evaluation
Gurumurthy, Balasubramanian; Broneske, David; Drewes, Tobias; Pionteck, Thilo; Saake, Gunter
In: Datenbank-Spektrum - Berlin : Springer, Bd. 18 (2018), Heft 3, S. 183-193
Integration of FPGAs in database management systems - challenges and opportunities
Becher, Andreas; Broneske, David; Drewes, Tobias; Gurumurthy, Balasubramanian; Meyer-Wegener, Klaus; Pionteck, Thilo; Saake, Gunter; Teich, Jürgen; Wildermann, Stefan
In: Datenbank-Spektrum - Berlin : Springer, Bd. 18 (2018), Heft 3, S. 145-156
An eight-dimensional systematic evaluation of optimized search algorithmson modern processors
Schulz, Lars-Christian; Broneske, David; Saake, Gunter
In: Proceedings of the VLDB Endowment - [New York, NY] : Assoc. of Computing Machinery, Bd. 11 (2018), Heft 11, S. 1550-1562
Mutation operators for feature-oriented software product lines
Krüger, Jacob; Al-Hajjaji, Mustafa; Leich, Thomas; Saake, Gunter
In: Software testing, verification & reliability - New York, NY [u.a.] : Wiley - 2018, Art. e1676, insgesamt 21 S. [Online first]
Dissertation
Personalized recommender systems for software product line configurations
Arriel, Juliana; Saake, Gunter; Spiliopoulou, Myra
In: Magdeburg, Dissertationn Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2018, xviii, 206 Seiten [Literaturverzeichnis: Seite [179]-206][Literaturverzeichnis: Seite [179]-206]
Mastering dependencies in multi-language software applications
Schink, Hagen; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2018, xx, 150 Seiten [Literaturverzeichnis: Seite 139-149][Literaturverzeichnis: Seite 139-149]
Industrialization of IT - an information system architecture for application system landscape providers
Hintsch, Johannes; Turowski, Klaus; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2018, xviii, 227 Seiten [Literaturverzeichnis: Seite 199-225][Literaturverzeichnis: Seite 199-225]
Nachhaltige Infrastruktur zur Forschungsdatenpublikation am Beispiel von Hochdurchsatz-Pflanzenphänotypisierungsdaten
Arend, Daniel; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2018, xiv, 146 Seiten [Literaturverzeichnis: Seite 129-146][Literaturverzeichnis: Seite 129-146]
Artikel in Kongressband
Low-latency transaction execution on graphics processors - dream or reality?
Arefyeva, Iya; Durand Campero, Gabriel; Pinnecke, Marcus; Broneske, David; Saake, Gunter
In: ADMS 2018 - Rio De Janeiro, S. 16-21 [Workshop: 9th International Workshop on Accelerating Analytics and Data Management Systems Using Modern Processor and Storage Architectures, ADMS, Rio de Janeiro, 27. August 2018]
Concept hierarchy extraction from legal literature
Wehnert, Sabine; Broneske, David; Langer, Stefan; Saake, Gunter
In: ResearchGATE - Cambridge, Mass. : ResearchGATE Corp. . - 2018, insges. 11 S. [Kongress: CIKM 2018 Workshop on Legal Data Analytics and Mining, LeDAM 2018]
Nicht begutachteter Zeitschriftenartikel
Cloud-scale entity resolution - current state and open challenges
Chen, Xiao; Schallehn, Eike; Saake, Gunter
In: Open journal of big data - Lübeck : RonPub UG, Bd. 4 (2018), Heft 1, S. 30-51
2017
Aufsatz
Interactive chord visualization for metaproteomics
Zoun, Roman; Schallert, Kay; Broneske, David; Heyer, Robert; Benndorf, Dirk; Saake, Gunter
In: 28th International Workshop on Database and Expert Systems Applications , 2017 - Piscataway, NJ : IEEE ; Tjoa, A. Min, S. 79-83
Challenges and perspectives of metaproteomic data analysis
Heyer, Robert; Schallert, Kay; Zoun, Roman; Becher, Beatrice; Saake, Gunter; Benndorf, Dirk
In: Journal of biotechnology - Amsterdam [u.a.] : Elsevier Science, Bd. 261 (2017), S. 24-36
Buchbeitrag
Cost-function complexity matters - when does parallel dynamic programming pay off for join-order optimization
Meister, Andreas; Saake, Gunter
In: Advances in Databases and Information Systems / ADBIS , 2017 - Cham : Springer International Publishing, S. 297-310 - (Lecture Notes in Computer Science; 10509) [Konferenz: 21st East European Conference, ADBIS 2017, Nicosia, Cyprus, September 24-27, 2017]
Modularization of refinement steps for agile formal methods
Benduhn, Fabian; Thüm, Thomas; Schaefer, Ina; Saake, Gunter
In: Formal Methods and Software Engineering - Cham : Springer . - 2017, S. 19-35 - (Lecture Notes in Computer Science; 10610) [Konferenz: 19th International Conference on Formal Engineering Methods, ICFEM 2017, Xi'an, China, November 13-17, 2017]
Finding lost features in cloned systems
Krüger, Jacob; Nell, Louis; Fenske, Wolfram; Saake, Gunter; Leich, Thomas
In: Proceedings of the 21th International Software Product Line Conference (SPLC 2017). Volume B - New York : ACM ; Beer, Maurice, S. 65-72 [Konferenz: 21th International Software Product Line Conference, SPLC 2017, Sevilla, Spain,September 25 - 29 2017]
FeatureIDE - empowering third-party developers
Krieter, Sebastian; Pinnecke, Marcus; Krüger, Jacob; Sprey, Joshua; Sontag, Christopher; Thüm, Thomas; Leich, Thomas; Saake, Gunter
In: Proceedings of the 21th International Software Product Line Conference (SPLC 2017). Volume B - New York : ACM ; Beer, Maurice, S. 42-45 [Konferenz: 21th International Software Product Line Conference, SPLC 2017, Sevilla, Spain,September 25 - 29 2017]
Beyond software product lines - variability modeling in cyber-physical systems
Krüger, Jacob; Nielebock, Sebastian; Krieter, Sebastian; Diedrich, Christian; Leich, Thomas; Saake, Gunter; Zug, Sebastian; Ortmeier, Frank
In: Proceedings of the 21th International Software Product Line Conference. Volume A - New York : ACM ; Cohen, Myra . - 2017, S. 237-241 [Konferenz: 21th International Software Product Line Conference, SPLC 2017, Sevilla, Spain,September 25 - 29, 2017]
Column vs. row stores for data manipulation in hardware oblivious CPU/GPU database systems
Arefyeva, Iya; Broneske, David; Pinnecke, Marcus; Bhatnagar, Mudit; Saake, Gunter
In: Proceedings of the 29th GI-Workshop Grundlagen von Datenbanken - Aachen, Germany : RWTH Aachen ; Workshop Grundlagen von Datenbanken (29.:Blankenburg (Harz)) . - 2017, S. 24-29 - (CEUR workshop proceedings; 1858) [Workshop: 29th GI-Workshop Grundlagen von Datenbanken, Blankenburg/Harz, Deutschland, 30. Mai - 02. Juni 2017]
Efficient mutation testing in configurable systems
Al-Hajjaji, Mustafa Zaid Saleh; Krüger, Jacob; Benduhn, Fabian; Leich, Thomas; Saake, Gunter
In: 2017 IEEE/ACM 2nd International Workshop on Variability and Complexity in Software Design - VACE 2017 , 2017 - Piscataway, NJ : IEEE ; Galster, Matthias, S. 2-8 [Workshop: IEEE/ACM 2nd International Workshop on Variability and Complexity in Software Design, VACE 2017, Buenos Aires, Argentina, 27 May 2017]
Delta-oriented product prioritization for similarity-based product-line testing
Al-Hajjaji, Mustafa Zaid Saleh; Lity, Sascha; Lachmann, Remo; Thüm, Thomas; Schaefer, Ina; Saake, Gunter
In: 2017 IEEE/ACM 2nd International Workshop on Variability and Complexity in Software Design - VACE 2017 , 2017 - Piscataway, NJ : IEEE, S. 34-40 [Workshop: IEEE/ACM 2nd International Workshop on Variability and Complexity in Software Design, VACE 2017, Buenos Aires, Argentina, 27 May 2017]
Efficient storage and analysis of genome data in databases
Dorok, Sebastian; Breß, Sebastian; Teubner, Jens; Läpple, Horstfried; Saake, Gunter; Markl, Volker
In: BTW 2017 , 2017 - Bonn : Gesellschaft für Informatik, S. 423-442 - (GI-Edition - lecture notes in informatics; Proceedings$lP-265) [Tagung: Datenbanksysteme für Business, Technologie und Web, BTW 2017, Stuttgart, 6. - 7. März 2017]
Compositional analyses of highly-configurable systems with feature-model interfaces
Schröter, Reimar; Krieter, Sebastian; Thüm, Thomas; Benduhn, Fabian; Saake, Gunter
In: Software Engineering 2017 / Tagung Software Engineering , 2017 - Bonn : Gesellschaft für Informatik e.V. (GI), S. 129 - (GI-Edition - lecture notes in informatics (LNI); Proceedings; volume P-267) [Tagung: Software Engineering 2017, Hannover, 21. - 24. Februar 2017]
How preprocessor annotations (do not) affect maintainability - a case study on change-proneness
Fenske, Wolfram; Schulze, Sandro; Saake, Gunter
In: Proceedings of the 16th ACM SIGPLAN International Conference on Generative Programming - New York, NY: ACM, S. 77-90, 2017[Konferenz: 16th ACM SIGPLAN International Conference on Generative Programming, GPCE 2017, Vancouver, BC, Canada, October 23 - 27, 2017]
Beyond Software Product Lines - Variability Modeling in Cyber-Physical Systems
Krüger, Jacob; Nielebock, Sebastian; Krieter, Sebastian; Diedrich, Christian; Leich, Thomas; Saake, Gunter; Zug, Sebastian; Ortmeier, Frank
In: Proceedings of the 21st International Systems and Software Product Line Conference - Volume A on - SPLC '17, ACM Press, 2017
FeatureIDE - Empowering Third-Party Developers
Krieter, Sebastian; Pinnecke, Marcus; Krüger, Jacob; Sprey, Joshua; Sontag, Christopher; Thüm, Thomas; Leich, Thomas; Saake, Gunter
In: Proceedings of the 21st International Systems and Software Product Line Conference - Volume B on ZZZ - SPLC '17, ACM Press, 2017
A survey on scalability and performance concerns in extended product lines configuration
Ochoa, Lina; Pereira, Juliana Alves; González-Rojas, Oscar; Castro, Harold; Saake, Gunter
In: Proceedings of the eleventh International Workshop on Variability Modelling of Software-intensive Systems, VaMoS'17 - New York : ACM . - 2017, S. 5-12 [Workshop: 11th International Workshop on Variability Modelling of Software-intensive Systems, VaMoS'17, Eindhoven, Netherlands, February 01-03, 2017]
Reverse engineering variability from natural language documents - a systematic literature review
Li, Yang; Schulze, Sandro; Saake, Gunter
In: Proceedings of the 21th International Software Product Line Conference. Volume A - New York : ACM . - 2017, S. 133-142 [Konferenz: 21th International Software Product Line Conference, SPLC 2017, Sevilla, Spain,September 25 - 29, 2017]
Variant-preserving refactorings for migrating cloned products to a product line
Fenske, Wolfram; Meinicke, Jens; Schulze, Sandro; Schulze, Steffen; Saake, Gunter
In: SANER 2017 - Piscataway, NJ : IEEE ; SANER (Veranstaltung:24.), S. 316-326 [Konferenz: 24th IEEE International Conference on Software Analysis, Evolution, and Reengineering, SANer 2017, Klagenfurt, Austria, February 21-24, 2017]
Hardware-sensitive scan operator variants for compiled selection pipelines
Broneske, David; Meister, Andreas; Saake, Gunter
In: BTW 2017 - Bonn : Gesellschaft für Informatik, S. 403-412 - (GI-Edition - lecture notes in informatics; Proceedings$lP-265) [Tagung: Datenbanksysteme für Business, Technologie und Web, BTW 2017, Stuttgart, 6. - 7. März 2017]
Are databases fit for hybrid workloads on GPUs? - a storage engine's perspective
Pinnecke, Marcus; Broneske, David; Durand Campero, Gabriel; Saake, Gunter
In: ICDE 2017 - Piscataway, NJ : IEEE ; IEEE International Conference on Data Engineering (33.:2017), S. 1599-1606 [Kongress: 2017 IEEE 33rd International Conference on Data Engineering, ICDE 2017, San Diego, California, USA, 19-22 April 2017]
Accelerating multi-column selection predicates in main-memory - the elf approach
Broneske, David; Köppen, Veit; Saake, Gunter; Schäler, Martin
In: ICDE 2017 - Piscataway, NJ : IEEE ; IEEE International Conference on Data Engineering (33.:2017), S. 647-658 [Kongress: 2017 IEEE 33rd International Conference on Data Engineering, ICDE 2017, San Diego, California, USA, 19-22 April 2017]
Backlogs and interval timestamps - building blocks for supporting temporal queries in graph databases
Durand Campero, Gabriel; Pinnecke, Marcus; Broneske, David; Saake, Gunter
In: CEUR workshop proceedings - Aachen : RWTH, Bd. 1810 (2017), insges. 6 S. [Kongress: EDBT/ICDT 2017 Joint Conference,Venice, Italy, March 21-24, 2017. - 6th International Workshop on Querying Graph Structured Data (GraphQ)]
Variability management in infrastructure as a service - scenarios in cloud deployment models
Khan, Ateeq; Hintsch, Johannes; Saake, Gunter; Turowski, Klaus
In: 2017 International Conference on Computing, Networking and Communications (ICNC) , 2017 - Piscataway, NJ : IEEE, S. 724-728 [Kongress: 2017 International Conference on Computing, Networking and Communications (ICNC), Silicon Valley, USA, 26 - 29 Jan. 2017]
Begutachteter Zeitschriftenartikel
Exploiting capabilities of modern processors in data intensive applications
Broneske, David; Saake, Gunter
In: Information technology - Berlin : De Gruyter, Bd. 59 (2017), Heft 3, S. 133-140
Efficiently storing and analyzing genome data in database systems
Dorok, Sebastian; Breß, Sebastian; Teubner, Jens; Läpple, Horstfried; Saake, Gunter; Markl, Volker
In: Datenbank-Spektrum - Berlin : Springer, Bd. 17 (2017), Heft 2, S. 139-154
Composing annotations without regret? - practical experiences using FeatureC
Krüger, Jacob; Pinnecke, Marcus; Kenner, Andy; Kruczek, Christopher; Benduhn, Fabian; Leich, Thomas; Saake, Gunter
In: Software
Dissertation
Cloud-based support for Massively Multiplayer Online Role-Playing Games
Diao, Ziqiang; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2017, xx, 126 Seiten [Literaturverzeichnis: Seite 115-126][Literaturverzeichnis: Seite 115-126]
Similarity-driven prioritization and sampling for product-line testing
Al-Hajjaji, Mustafa Zaid Saleh; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2017, xxii, 164 Seiten [Literaturverzeichnis: Seite 147-163][Literaturverzeichnis: Seite 147-163]
Efficient storage and analysis of genome data in relational database systems
Dorok, Sebastian; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität, Fakultät für Informatik 2017, xx, 134 Seiten [Literaturverzeichnis: Seite [125]-134][Literaturverzeichnis: Seite [125]-134]
Automated query interface for hybrid relational architectures
Lübcke, Andreas; Saake, Gunter
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2017, xviii, 204 Seiten
Variability in Service-oriented Computing
Khan Lodhi, Muhammad Ateeq; Saake, Gunter; Turowski, Klaus
In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik 2017, xviii, 152 Seiten [Literaturverzeichnis: Seite 127-149][Literaturverzeichnis: Seite 127-149]
Wissenschaftliche Monographie
Mastering Software Variability with FeatureIDE
Meinicke, Jens; Thüm, Thomas; Schröter, Reimar; Benduhn, Fabian; Leich, Thomas; Saake, Gunter
In: Cham: Springer International Publishing, 2017, 1 Online-Ressource (XII, 243 p. 50 illus., 30 illus. in color)
Mastering software variability with FeatureIDE
Meinicke, Jens; Thüm, Thomas; Schröter, Reimar; Benduhn, Fabian; Leich, Thomas; Saake, Gunter
In: Cham: Springer, 2017, Online-Ressource (xii, 243 Seiten) - (SpringerLink; Bücher; Springer eBook Collection; Computer Science), ISBN: 978-3-319-61443-4 [Literaturverzeichnis: Seite 235-239]
2016
Buchbeitrag
Variability management in IaaS
Khan, Ateeq; Hintsch, Johannes; Turowski, Klaus; Saake, Gunter
In: 8th IEEE International Conference on Cloud Computing Technology and Science , 2016 - Piscataway, NJ : IEEE, S. 75-78 [Kongress: 8th IEEE International Conference on Cloud Computing Technology and Science, CloudCom 2016, Luxembourg, 12-15 December 2016]
Quantitative and qualitative empirical analysis of three feature modeling tools
Alves Pereira, Juliana; Constantino, Kattiana; Figueiredo, Eduardo; Saake, Gunter
In: Communications in computer and information science - Singapore : Springer, Bd. 658 (2016), S. 1-24
Extracting software product lines - a cost estimation perspective
Krüger, Jacob; Fenske, Wolfram; Meinicke, Jens; Leich, Thomas; Saake, Gunter
In: Proceedings of the 20th International Software Product Line Conference (SPLC 2011) - Piscataway, NJ : IEEE . - 2016, S. 354-361 [Kongress: 20th International Software Product Line Conference (SPLC 2011), Beijing, China,September 16 - 23, 2016]
A feature-based personalized recommender system for product-line configuration
Pereira, Juliana Alves; Matuszyk, Pawel; Krieter, Sebastian; Spiliopoulou, Myra; Saake, Gunter
In: Proceedings of the 2016 ACM SIGPLAN International Conference on Generative Programming - New York, NY : ACM, S. 120-131 [Kongress: 2016 ACM SIGPLAN International Conference on Generative Programming, GPCE 2016, Amsterdam, Netherlands, October 31 - November 01, 2016]
Mutation operators for preprocessor-based variability
Al-Hajjaji, Mustafa Zaid Saleh; Benduhn, Fabian; Thüm, Thomas; Leich, Thomas; Saake, Gunter
In: Proceedings of the tenth International Workshop on Variability Modelling of Software-intensive Systems, VaMoS'16 - New York : ACM . - 2016, S. 81-88 [Kongress: 10th International Workshop on Variability Modelling of Software-intensive Systems, VaMoS'16, Salvador, Brazil, January 27 - 29, 2016]
IncLing - efficient product-line testing using incremental pairwise sampling
Al-Hajjaji, Mustafa Zaid Saleh; Krieter, Sebastian; Thüm, Thomas; Lochau, Malte; Saake, Gunter
In: Proceedings of the 2016 ACM SIGPLAN International Conference on Generative Programming - New York, NY : ACM, S. 144-155 [Kongress: 2016 ACM SIGPLAN International Conference on Generative Programming, GPCE 2016, Amsterdam, Netherlands, October 31 - November 01, 2016]
Tool demo - testing configurable systems with FeatureIDE
Al-Hajjaji, Mustafa Zaid Saleh; Meinicke, Jens; Krieter, Sebastian; Schröter, Reimar; Thüm, Thomas; Leich, Thomas; Saake, Gunter
In: Proceedings of the 2016 ACM SIGPLAN International Conference on Generative Programming - New York, NY : ACM ; Fischer, Bernd, S. 173-177 [Kongress: 2016 ACM SIGPLAN International Conference on Generative Programming, GPCE 2016, Amsterdam, Netherlands, October 31 - November 01, 2016]
Comparing algorithms for efficient feature-model slicing
Krieter, Sebastian; Schröter, Reimar; Thüm, Thomas; Fenske, Wolfram; Saake, Gunter
In: Proceedings of the 20th International Software Product Line Conference (SPLC 2011) - Piscataway, NJ : IEEE . - 2016, S. 60-64 [Kongress: 20th International Software Product Line Conference (SPLC 2011), Beijing, China,September 16 - 23, 2016]
Migration from annotation-based to composition-based product lines - towards a tool-driven process
Benduhn, Fabian; Schröter, Reimar; Kenner, Andy; Kruczek, Christopher; Leich, Thomas; Saake, Gunter
In: SOFTENG 2016 - [Wilmington, DE, USA] : IARIA ; International Conference on Advances and Trends in Software Engineering (2.:2016), S. 102-109 [Kongress: Second International Conference on Advances and Trends in Software Engineering, SOFTENG 2016, Lisbon, Portugal, February 21-25, 2016]
Feature-model interfaces - the highway to compositional analyses of highly-configurable systems
Schröter, Reimar; Krieter, Sebastian; Thüm, Thomas; Benduhn, Fabian; Saake, Gunter
In: Proceedings of the 38th International Conference on Software Engineering - Piscataway, NJ : IEEE . - 2016, S. 667-678 [Kongress: 38th International Conference on Software Engineering, ICSE '16, Austin, Texas, May 14 - 22, 2016]
FeatureIDE - taming the preprocessor wilderness
Meinicke, Jens; Thüm, Thomas; Schröter, Reimar; Krieter, Sebastian; Benduhn, Fabian; Saake, Gunter; Leich, Thomas
In: 2016 IEEE/ACM 38th IEEE International Conference on Software Engineering Companion - New York, NJ : The Association for Computing Machinery, S. 629-632 [Kongress: 38th International Conference on Software Engineering Companion, ICSE'16, Austin, Texas,May 14 - 22, 2016]
A study on tool support for refactoring in database applications
Schink, Hagen; Siegmund, Janet; Schröter, Reimar; Thüm, Thomas; Saake, Gunter
In: 18. Workshop Software-Reengineering und -Evolution der GI-Fachgruppe Software-Reengineering (SRE) , 2016 - Bonn : Köllen Druck & Verlag GmbH, S. 20-21 [Kongress: 18. Workshop Software-Reengineering und -Evolution der GI-Fachgruppe Software-Reengineering, Bad Honnef, 2. - 4. Mai 2016]
Challenges for a GPU-accelerated dynamic programming approach for join-order optimization
Meister, Andreas; Saake, Gunter
In: CEUR workshop proceedings - Aachen, Germany : RWTH Aachen, Bd. 1594 (2016), S. 86-91 [Kongress: 28th GI-Workshop Grundlagen von Datenbanken, Nörten Hardenberg, Germany, May 24-27, 2016]
On essential configuration complexity: measuring interactions in highly-configurable systems
Meinicke, Jens; Wong, Chu-Pan; Kästner, Christian; Thüm, Thomas; Saake, Gunter
In: ASE'16 - Piscataway, NJ : IEEE ; IEEE/ACM International Conference on Automated Software Engineering (31.:2016), S. 483-494 [Kongress: 31st IEEE/ACM International Conference on Automated Software Engineering, ASE 2016, Singapore, September 03 - 07, 2016]
Begutachteter Zeitschriftenartikel
Effective product-line testing using similarity-based product prioritization
Al-Hajjaji, Mustafa Zaid Saleh; Thüm, Thomas; Lochau, Malte; Meinicke, Jens; Saake, Gunter
In: Software and systems modeling - Berlin : Springer . - 2016
FeatureIDE - scalable product configuration of variable systems
Pereira, Juliana Alves; Krieter, Sebastian; Meinicke, Jens; Schröter, Reimar; Saake, Gunter; Leich, Thomas
In: Software Reuse: Bridging with Social-Awareness - Cham : Springer . - 2016, S. 397-401 - (Lecture Notes in Computer Science; 9679) [Kongress: International Conference on Software Reuse, ICSR 2016, Limassol, Cyprus, June 5-7, 2016]
Aus technischen Gründen können nur 200 Publikationen angezeigt werden.
Mehr im Forschungsportal ansehen.
Aktuelle Projekte
Learning Adaptivity in Heterogeneous Relational Database Systems (LARDS)
Laufzeit: 01.04.2022 bis 01.04.2026
With the ever-increasing heterogeneity of hardware, the database community is tasked with adapting to the new reality of diverse systems with a rich set of different architectures, capabilities and properties.
The traditional workflow of hand-tuning implementations to the underlying hardware, for peak performance, is commonly considered untenable for an ever-growing variety of hardware with different performance characteristics. Systems like Micro-Adaptivity in Vectorwise or HAWK have been studied as solutions, but their adoption remains limited.
This project aims to explore solutions for a fully adaptive query execution engine and techniques that allow for simple adoption. To achieve this goal, we plan to tackle four problems.
At first, investigate on how to build micro-optimizations into a hardware-oblivious query pipeline in an efficient and simple-to-maintain way, while still offering a large optimization space. Afterwards, we investigate how to select the best optimizations automatically and in an on-the-fly adapting way, depending on the query and hardware properties.
As a third step, we investigate on the integration of the previous research results into a traditional query execution pipeline and query plan generation.
In the last phase of the project, we will explore techniques that can be used to augment the demonstrator with OLTP capabilities and introduce micro-optimizations into transaction processing.
Compositional Feature-Model Analyses
Laufzeit: 01.01.2021 bis 01.01.2026
Feature modeling is widely used to systematically model features of variant-rich software systems and their dependencies. By translating feature models into propositional formulas and analyzing them with solvers, a wide range of automated analyses across all phases of the software development process become possible. Most solvers only accept formulas in conjunctive normal form (CNF), so an additional transformation of feature models is often necessary.
In this project, we investigate whether this transformation has a noticeable impact on analyses and how to influence this impact positively. We raise awareness about CNF transformations for feature-model analysis and mitigate it as a threat to validity for research evaluations to ensure reproducibility and fair comparisons. Furthermore, we investigate other steps in the feature-model analysis process, their alternatives, and their interactions; for instance, we study the potential and impact of knowledge compilation, interfaces, slicing, and evolution on feature-model analyses.
Our vision for this project is to lay a foundation for a compositional feature-model analysis algebra; that is, to understand how complex analyses are made of simple parts, how they can be re-assembled, and how those parts interact with each other.
Eine allgemeine Speicher-Engine für moderne Speicherhierarchien
Laufzeit: 01.10.2022 bis 30.09.2025
Die wissenschaftliche Forschung wird zunehmend von datenintensiven Problemen bestimmt. Da die Komplexität der untersuchten Probleme zunimmt, steigt auch der Bedarf an hohem Datendurchsatz und -kapazität. Das weltweit produzierte Datenvolumen verdoppelt sich etwa alle zwei Jahre, was zu einer exponentiellen Datenflut führt. Diese Datenflut stellt eine direkte Herausforderung für Datenbankmanagementsysteme und Dateisysteme dar, die die Grundlage für eine effiziente Datenanalyse und -verwaltung bilden. Diese Systeme verwenden verschiedene Speichergeräte, die traditionell in Primär-, Sekundär- und Tertiärspeicher unterteilt waren. Mit der Einführung der disruptiven Technologie des nichtflüchtigen Arbeitsspeichers (NVRAM) begannen diese Klassen jedoch miteinander zu verschmelzen, was zu heterogenen Speicherarchitekturen führte, bei denen jedes Speichergerät sehr unterschiedliche Leistungsmerkmale aufweist (z. B. Persistenz, Speicherkapazität, Latenz). Eine große Herausforderung ist daher die Ausnutzung der spezifischen Leistungscharakteristika dieser Speichergeräte.
Zu diesem Zweck wird SMASH die Vorteile einer gemeinsamen Speicher-Engine untersuchen, die eine heterogene Speicherlandschaft verwaltet, einschließlich herkömmlicher Speichergeräte und nichtflüchtiger Speichertechnologien. Das Herzstück dieser Speicher-Engine werden B-epsilon-Bäume sein, da diese zur effizienten Nutzung dieser unterschiedlichen Geräte verwendet werden können. Darüber hinaus werden Strategien zur Datenplatzierung und -migration untersucht, um den durch die Übertragung von Daten zwischen verschiedenen Geräten verursachten Overhead zu minimieren. Durch den Wegfall der Notwendigkeit flüchtiger Caches kann die Datenkonsistenz besser sichergestellt werden. Auf der Anwendungsseite wird die Speicher-Engine Key-Value- und Objekt-Schnittstellen bieten, die für eine Vielzahl von Anwendungsfällen genutzt werden können, zum Beispiel für das Hochleistungsrechnen (HPC) und für Datenbankmanagementsysteme. Aufgrund der immer größer werdenden Kluft zwischen der Leistung von Rechen- und Speichergeräten sowie deren stagnierender Zugriffsleistung sind außerdem Techniken zur Datenreduzierung sehr gefragt, um den Bandbreitenbedarf beim Speichern und Abrufen von Daten zu verringern. Wir werden daher Forschungsarbeiten zu Datentransformationen im Allgemeinen und zu den Möglichkeiten externer und beschleunigter Transformationen durchführen. Übliche HPC-Workflows werden durch die Integration von SMASH in das bestehende JULEA-Storage-Framework unterstützt, während Datenbanksysteme die Schnittstelle von SMASH direkt nutzen können, um Daten zu speichern oder abzurufen.
Unveiling the Hidden Gems: Exploring Unexpected Rare Pattern Mining in Data
Laufzeit: 20.08.2018 bis 31.03.2025
Pattern mining is the task of finding statistically relevant patterns in data that can provide valuable insights and knowledge. However, most existing pattern mining methods use a single threshold to determine the frequency of the patterns, which may not reflect the diversity and specificity of the data items. This may lead to two problems: (1) if the threshold is too low, it may generate too many patterns, many of which are redundant or uninteresting; (2) if the threshold is too high, it may miss some patterns, especially the rare ones that occur infrequently but have high significance or utility.
The rare pattern problem is a challenging and important issue in pattern mining, as rare patterns may represent unknown or hidden knowledge that can inform and inspire various domains and applications, such as medical diagnosis, fraud detection, or anomaly detection. Several studies have attempted to address this problem by mining frequent patterns, including rare ones, using different minimum item support thresholds (MIS) for each item. This approach can generate a complete set of frequent patterns without losing any significant ones. However, this approach is also very costly and inefficient, as it may still produce many redundant or useless patterns that consume a lot of time and memory.
The primary objective of this project is to enhance an efficient and effective method for mining rare patterns, without generating the complete set of frequent patterns. The method is based on frequent closed itemset mining, which is a technique that can reduce the number of patterns by eliminating those that are included in other patterns with the same frequency. The method also aims to avoid generating a large number of rules, and instead, to discover only those rules that are rare and generate more actionable insights. Therefore, the method can mine only the most interesting patterns, which are those that are rare, closed, and have high utility or significance. The method can be applied to various data sets and domains, such as health data, where rare patterns may represent rare diseases, hidden connections, or complex interactions. The project aims to evaluate the performance and quality of the method, and to compare it with other existing methods for rare pattern mining. The project also aims to demonstrate the usefulness and impact of the method, and to show how it can discover novel and intriguing patterns that can drive meaningful change.
Optimizing graph databases focussing on data processing and integration of machine learning for large clinical and biological datasets
Laufzeit: 01.12.2021 bis 30.11.2024
Graphdatenbanken stellen eine effiziente Technik zur Speicherung und zum Zugriff auf hochgradig
verknüpfte Daten unter Verwendung einer Graphstruktur dar, wie z.B. Verbindungen zwischen Messdatenzu Umweltparametern oder klinischen Patientendaten. Die flexible Knotenstruktur macht es einfach, dieErgebnisse verschiedener Untersuchungen hinzuzufügen. Dies reicht von einfachen Blutdruckmessungenüber die neuesten CT- und MRT-Scans bis hin zu hochauflösenden Omics-Analysen (z.B. von Tumorbiopsien,Darmmikrobiom-Proben). Allerdings wird das volle Potenzial der Datenverarbeitung und -analyse mittelsGraphdatenbanken in biologischen und klinischen Anwendungsfällen noch nicht vollständig ausgeschöpft.Insbesondere die riesige Menge an miteinander verbundenen Daten, die geladen, verarbeitet und analysiertwerden müssen, führt zu zu langen Verarbeitungszeiten, um in klinische Arbeitsabläufe integriert werdenzu können. Um dieses Ziel zu erreichen sind neuartige Optimierungen von Graph-Operatoren sowie eine
geeignete Integration von Analyseansätzen notwendig.
Dieses Projekt zielt darauf ab, die oben genannten Probleme in zwei Richtungen zu lösen: (i) Vorschlag
geeigneter Optimierungen für Graphdatenbank-Operationen, auch unter Einsatz moderner Hardware, und(ii) Integration von Algorithmen des maschinellen Lernens für eine einfachere und schnellere Analyse der biologischenDaten. Für die erste Richtung untersuchen wir den Stand der Technik von Graphdatenbanksystemen
und deren Speicherung sowie ihr Verarbeitungsmodell. Anschließend schlagen wir Optimierungen für effizienteoperationale und analytische Operatoren vor. Für die zweite Richtung stellen wir uns vor, Algorithmen desmaschinellen Lernens näher an ihre Datenlieferanten - die Graphdatenbanken - heranzubringen. Zu diesemZweck füttern wir in einem ersten Schritt die Algorithmen des maschinellen Lernens direkt mit dem Graphenals Eingabe, indem wir geeignete Graphenoperatoren entwerfen. In einem zweiten Schritt integrieren wir dasmaschinelle Lernen direkt in die Graphdatenbank, indem wir spezielle Knoten hinzufügen, die das Modell des Algorithmus für maschinelles Lernen repräsentieren. Die Ergebnisse unseres Projekts sind verbesserte Operatoren, die sowohl moderne Hardware als auch Integrationskonzepte für Algorithmen des maschinellen Lernens nutzen. Unsere allgemein entwickeltenAnsätze werden das Verarbeiten und Analysieren riesiger Graphen in einer Fülle von Anwendungsfällen überunseren angestrebten Anwendungsfall der biologischen und klinischen Datenanalyse hinaus vorantreiben.
Abgeschlossene Projekte
ADAMANT-II: Adaptive Data Management in Evolving Heterogeneous Hardware/Software Systems
Laufzeit: 01.01.2021 bis 31.12.2023
Heterogene Systemarchitekturen bestehend aus CPUs, GPUs und FPGAs bieten vielfältige Optimierungsmöglichkeiten im Vergleich zu rein CPU-basierten Systemen. Zur vollständigen Ausnutzung dieses Optimierungspotenzials reicht es jedoch nicht, bestehende Softwarekonzepte unverändert auf nicht-von-Neumann-Architekturen wie beispielsweise FPGAs zu übertragen. Vielmehr erfordern die zusätzlichen Verarbeitungsmöglichkeiten dieser Architekturen den Entwurf neuartiger Verarbeitungskonzepte. Dies ist bereits in der Planung der Anfrageverarbeitung zu berücksichtigen. In der ersten Projektphase entwickelten wir hierfür bereits ein erstes Konzept, welches die gerätespezifischen Merkmale in unserer Plug’n’Play Architektur berücksichtigt. Allerdings sehen wir die Notwendigkeit zu dessen Weiterentwicklung, um eine noch bessere Ausnutzung der spezifischen Eigenschaften der Hardwarearchitekturen zu erreichen. Für die zweite Projektphase stellen wir daher die Hypothese auf, dass bekannte Verfahren zur Abbildung von Anfragen auf der Ebene einzelner Operatoren nicht ausreichen sind, um die erweiterten Verarbeitungsmöglichkeiten heterogener Systemarchitekturen auszunutzen.
Unser Ziel ist daher die Erforschung neuartiger Verarbeitungskonzepte und Verfahren zur Abbildung von Anfragen für heterogene Systeme, welche von der üblicherweise verwendeten Granularität auf Ebene einzelner Operatoren abweichen. Wir werden Verarbeitungseinheiten entwickeln, die eine größere Funktionalität als einzelne Operatoren bereitstellen und sich über mehrere Geräte hinweg erstrecken. Diese Verarbeitungseinheiten sind in sich heterogen und kombinieren die spezifischen Eigenschaften einzelner Architekturen. Im Ergebnis ermöglicht unsere heterogene Systemarchitektur das Bereitstellen von Datenbankoperationen und Funktionen, die in klassischen Datenbanksystemen nicht verfügbar oder nicht effizient realisierbar sind.
Zu Demonstrationszwecken haben wir drei Anwendungsfälle identifiziert, welche von heterogenen Systemarchitekturen stark profitieren können: Verarbeitung von Datenströmen mit hohem Aufkommen, approximative Anfrageverarbeitung und dynamische Multianfrageverarbeitung. Hochvolumige Datenströme erfordern eine Hardwarearchitektur, die eine Verarbeitung der Daten ohne vorherige Zwischenspeicherung ermöglicht. Dafür stellen FPGAs eine vielversprechende Plattform durch ihr datenstrombasiertes Verarbeitungsprinzip dar. Darüber hinaus eignen sich sowohl FPGAs als auch GPUs für approximierende Anfragenverarbeitungen, da sie arithmetische Operationen mit reduzierter Genauigkeit und die Realisierung von approximativen, hardwarebeschleunigten Samplingtechniken ermöglichen. Die dynamische Multianfrageverarbeitung ist aus Systemsicht sehr anspruchsvoll, da variable Systemlasten die Effizienz zuvor aufgestellter Anfragepläne reduzieren können. Hier ermöglichen die zahlreichen Parallelitätsebenen in heterogenen Systemen eine bessere Verteilung der Systemlasten.
A ranking-based automated approach for supporting Literature Review research methodologies.
Laufzeit: 01.07.2020 bis 30.06.2023
Literature reviews in general are methodologies of research which aim to gather and evaluate available evidence regarding a specific research topic. A common scientific method for performing this literature reviews is Systematic Literature Review (SLR). Another method is called Systematic mapping study (SMS). Their process if conducted manually can be very time and effort consuming. Therefore, multiple tools and approaches were proposed in order to facilitate several stages of this process. In this PhD thesis, we aim to evaluate the quality of these literature reviews studies using combined aspects. We measure the quality of the study`s included primary selected papers by combining social and academic Influence in a recursive way. Additionally, we will apply a machine learning ranking model based on a similarity function that is built upon bibliometrics and Altmetrics quality criteria and full text relevancy. In order to achieve the proposed approach, we begin with investigating the current state of the art in different directions, mainly the most effective and commonly used quality measures of publications, Altmetrics, Bibliometrics and machine learning text related techniques. A method for assessing the quality of these literature reviews research methods, would definitely be useful for the scientific research community in general, as It would save valuable time and reduce tremendous required effort.
Digitales Programmieren im Team - Adaptive Unterstützung für kollaboratives Lernen
Laufzeit: 01.03.2020 bis 28.02.2023
Das kollaborative Programmieren ist Kernbestandteil des beruflichen Alltags in der Informatik. Diese auf einer technischen und sozialen Ebene komplexen Vorgänge werden im Informatikstudium oftmals abstrakt behandelt und spielen in Fachkonzepten zum Programmierenlernen eine untergeordnete Rolle. Im Rahmen von Gruppenarbeiten müssen sich die Lernenden organisieren, koordinieren und ihre Lernprozesse regulieren - kognitiv anspruchsvolle Tätigkeiten. Um das Potential kollaborativer Lernformen für das Erlernen von Programmiersprachen und die Förderung sozialer Kompetenzen ausschöpfen zu können, müssen die Lernenden bei Bedarf didaktische Unterstützung erhalten, sowohl vor dem als auch während des Lernprozesses. Im Teilprojekt DiP-iT-OVGU werden wir - unterstützt durch die Projektpartner - auf der Basis empirischer Studien ein digitales Fachkonzept zum kollaborativen Programmierenlernen entwickeln und evaluieren, welches diesbezügliche (medien-)didaktische Ansätze enthält. Dabei zielen wir auf die Ermöglichung des Transfers an andere Hochschulen. Auf informationstechnischer Ebene wird hierfür ein Prozessmodell entwickelt, das die Nachnutzbarkeit von Forschungsdaten und die Übertragbarkeit von Datenmodellen (z.B. zur adaptiven didaktischen Unterstützung) in andere Lehrveranstaltungen bzw. Lehr-Lernsysteme ermöglicht. Das Teilprojekt ordnet sich in das Gesamtprojekt mit folgenden Zielstellungen ein:
- Analyse und Systematisierung von Einstellungen und Vorerfahrungen bei den Akteuren,
- Entwicklung konzeptioneller, mediendidaktischer Kriterien für die Einbindung kollaborativen Programmierenlernens in Lehrveranstaltungen,
- Entwicklung geeigneter Lehr-Lern-Szenarien und Erstellung eines diesbezüglichen digitalen Fachkonzepts,
- empirische Fundierung durch formative und summative Evaluation,
- Untersuchung der Effektivität von Formen der instruktionalen Anleitung angelehnt an die Bedarfe der Lernenden,
- Unterstützung des Transfers der Erkenntnisse, inhaltlich und technisch.
DiP-iT:Digitales Programmieren im Team
Laufzeit: 01.02.2020 bis 31.01.2023
Das kollaborative Programmieren ist Kernbestandteil des beruflichen Alltags in der Informatik. Diese auf einer technischen und sozialen Ebene komplexen Vorgänge werden im Informatikstudium oftmals abstrakt behandelt und spielen in Fachkonzepten zum Programmierenlernen eine untergeordnete Rolle. Im Rahmen von Gruppenarbeiten müssen sich die Lernenden organisieren, koordinieren und ihre Lernprozesse regulieren - kognitiv anspruchsvolle Tätigkeiten. Um das Potential kollaborativer Lernformen für das Erlernen von Programmiersprachen und die Förderung sozialer Kompetenzen ausschöpfen zu können, müssen die Lernenden bei Bedarf didaktische Unterstützung erhalten, sowohl vor dem als auch während des Lernprozesses. Im Teilprojekt DiP-iT-OVGU werden wir - unterstützt durch die Projektpartner - auf der Basis empirischer Studien ein digitales Fachkonzept zum kollaborativen Programmierenlernen entwickeln und evaluieren, welches diesbezügliche (medien-)didaktische Ansätze enthält. Dabei zielen wir auf die Ermöglichung des Transfers an andere Hochschulen. Auf informationstechnischer Ebene wird hierfür ein Prozessmodell entwickelt, das die Nachnutzbarkeit von Forschungsdaten und die Übertragbarkeit von Datenmodellen (z.B. zur adaptiven didaktischen Unterstützung) in andere Lehrveranstaltungen bzw. Lehr-Lernsysteme ermöglicht. Das Teilprojekt ordnet sich in das Gesamtprojekt mit folgenden Zielstellungen ein:
- Analyse und Systematisierung von Einstellungen und Vorerfahrungen bei den Akteuren,
- Entwicklung konzeptioneller, mediendidaktischer Kriterien für die Einbindung kollaborativen Programmierenlernens in Lehrveranstaltungen,
- Entwicklung geeigneter Lehr-Lern-Szenarien und Erstellung eines diesbezüglichen digitalen Fachkonzepts,
- empirische Fundierung durch formative und summative Evaluation,
- Untersuchung der Effektivität von Formen der instruktionalen Anleitung angelehnt an die Bedarfe der Lernenden,
- Unterstützung des Transfers der Erkenntnisse, inhaltlich und technisch.
Query Acceleration Techniques in Co-Processor-Accelerated Main-memory Database Systems
Laufzeit: 31.08.2019 bis 31.03.2022
Das Projekt adressiert den aktuellen Schwerpunkt von Analysen in Hauptspeicherdatenbanken auf moderner Hardware: Heterogenität der Prozessoren und deren Einbindung in die Anfrageverarbeitung. Aufgrund der Vielzahl von Optimierungen und Varianten von Algorithmen und unbegrenzte Anzahl an Anwendungsfällen, ist das Erstellen des perfekten Anfrageplanes nahezu unmöglich.
Ziel der Habilitation ist es, (1) einen umfassenden Katalog von vielversprechenden Algorithmenvarianten aufzustellen, (2) eine optimale Auswahl der Varianten im Zuge der übergeordneten Anfrageoptimierung zu erlangen, (3) als auch Lastverteilung im Co-Prozessorbeschleunigten System zu erreichen.
- Der Variantenkatalog umfasst als weitere Dimensionen sowohl die Ausführung auf den spaltenorientierten Daten, als auch unter Nutzung von speziellen Indexstrukturen und beinhaltet unterschiedliche Ergebnisrepräsentationen. Aus allen möglichen Dimension wird dann eine Abstraktionsschicht entwickelt, sodass ein Algorithmus unabhängig von dessen Optimierungen definiert werden kann. Dadurch soll jede Variante effizient, mit wenig redundantem Code generiert und ausgeführt werden können.
- Aufgrund des enormen Variantenraumes bestehend aus den Dimensionen der Varianten inklusive dem Einfluss der ausführenden Prozessoren ist die Wahl einer auszuführenden Variante nicht trivial. Ziel ist es hier lern-basierte Methoden in Hinblick auf die Eignung zur Algorithmenauswahl gegenüber zu stellen, um valide Entscheidungen zu treffen. Die zu treffenden Entscheidungen sollen des Weiteren auch ausgeweitet werden auf das Erstellen von Indexen als auch der Datenverteilung in Ziel (3).
- Die Lastenverteilung in Co-Prozessorbeschleunigten Systemen wird durch den Grad der Parallelisierung beeinflusst. Dieser Grad teilt sich in mehrere Dimensionen, da Datenbankoperationen in kleinere Funktionseinheiten (sog. Primitive) aufteilen können. Diese Primitive können entweder auf dem ganzen Datenbestand laufen oder partitioniert ausgeführt werden. All diese Optimierungspotentiale (unterschiedliche Granularitätsstufen und Partitionierungsgrößen) müssen analysiert und optimal gewählt werden, um unter der gegebenen und zukünftigen Anfragelast eine angemessene Performanz zu ermöglichen. Ziel ist es, ein Modell lernen zu lassen, um optimale Verteilungen und optimierte Pläne zu erstellen. Wichtig ist hierbei, dass das Modell auch Rückschlüsse auf dessen Entscheidungen zulässt, um eine Generalisierbarkeit zu erreichen.
EXtracting Product Lines from vAriaNTs (EXPLANT II)
Laufzeit: 01.09.2019 bis 28.02.2022
Eine Software-Produktlinie (SPL) ermöglicht die systematische Verwaltung einer Menge von wiederverwendbaren Softwareartefakten und damit die effiziente Generierung verschiedener Varianten einer Software. In der Praxis erstellen Entwickler jedoch häufig Softwarevarianten ad-hoc, indem sie Softwareartefakte kopieren und an neue Anforderungen anpassen (Clone-and-Own). Die hierbei fehlende Systematik und Automatisierung macht die Wartung und Weiterentwicklung der Varianten oft zeitaufwendig und fehleranfällig. Wir schlagen daher eine schrittweise Migration von geklonten Softwarevarianten in eine kompositionale (d.h. modular aufgebaute) SPL vor.
In der ersten Projektphase konnten wir bereits beachtliche Ergebnisse bei der Varianten-erhaltenden Transformation und den entsprechenden Analysen auf Modell- und Codeebene erzielen. In der zweiten Phase wollen wir nun auf den daraus gewonnenen Erkenntnisse aufbauen. Dies sind im Besonderen: (1) Eine nur auf Code-Klon Detektion basierende automatisierte Migration erzeugt keine kohärenten Softwareartefakte mit einer bestimmten Funktionalität. (2) Einige potentielle Kooperationspartner hatten Bedenken ihre Systeme zu migrieren, da sie die Einführung neuer Fehler befürchten. (3) Annotative SPL scheinen weniger fehleranfällig und somit robuster gegenüber Änderungen zu sein, als bisher angenommen.
Aufgrund der Probleme mit industriellen Partnern (2) kamen wir zu dem Schluss, dass weitere Forschungen, insbesondere zur Qualitätssicherung von migrierten SPL, Überführungskosten und Eigenschaften von Softwareartefakten notwendig sind. Wir wollen daher untersuchen, welche Kostenfaktoren bei der Überführung und beim Einsatz von SPL eine Rolle spielen und wie stark deren Einfluss jeweils ist. Weiterhin planen wir Qualitätsmetriken für migrierte SPL aufzuzeigen. In der ersten Projektphase haben wir bereits einen teil-automatisierten Migrationsprozess vorgeschlagen (1), welchen wir nun weiter ausbauen und neue Analysen integrieren wollen. Dabei wollen wir vor Allem untersuchen, ob sich nützliche Informationen, insbesondere über die Intention der Entwickler, aus weiteren Quellen, als dem Code beziehen lassen. Vielversprechende Ansätze sind hier die Analyse von Versionsverwaltungssystemen und die Analyse von existierenden Verhaltens- und Architektur-Modellen eines Systems. Des Weiteren haben wir vor, zur Steigerung des Automatisierungsgrads weitere Refactorings, wie z.B. "Move Method" einzusetzen. Um die Struktur und damit auch die Wartbarkeit der resultierenden Modularisierung zu verbessern, planen wir außerdem unseren Migrationsprozess auf Multi-Software-Produktlinien zu erweitern. Dadurch ließen sich einzelne Funktionalitäten eines Systems besser auftrennen. Ebenfalls wollen wir untersuchen, welche Granularität für migrierte Softwareartefakte am besten geeignet ist und ob annotative Verfahren (3) für migrierte SPL Vorteile gegenüber kompositionalen Verfahren bringen können.
MetaProteomeAnalyzer Service (MetaProtServ)
Laufzeit: 01.12.2016 bis 31.12.2021
Die Metaproteomik zielt auf die Erforschung zellulärer Funktionen komlexer Lebensgemeinschaften und ergänzt die Metagenomik and Metatranscriptomik als häufig eingesetzte Werkzeuge in der mikrobiellen Ökologie (z.B. humanes Darm-Mikrobiome, Biogasanlagen). Bioinformatische Werkzeuge, die für die Proteomik von Reinkulturen entwickelt wurden, können nicht zufriedenstellend Ergebnis benutzt werden. So führen Datenbanksuchen für die Proteinidentifizierung mit Metagenomsequenzen zu einer hohen Zahl redundanten Hits in den Suchergebnissen in Bezug auf Taxonomy und Funktion identifizierten Proteine. Für eine bessere Auswertung von Metaproteomdaten wurde deshalb MetaProteomAnalyzer (MPA) Software entwickelt. Im Rahmen von MetaProtServ soll das benutzerfreundliche Programm mit einer graphischen Oberfläche als Webservice verfügbar gemacht werden, um mehr Wissenschaftler von den Vorteilen der Metaproteomik zu überzeugen. Gezieltes Training von Anwendern und ein individueller Support sollen die Zugänglichkeit dieser Software in der wissenschaftlichen Gemeinschaft erleichtern. Die Funktionalität und die Wartungsfreundlichkeit werden für den zukünftigen Webservice sowie für eine eigenständige Version parallel basierend auf einem gemeinsamen Code und einer gemeinsamen Struktur weiterentwickelt. Die Software wird beispielsweise um Schnittstellen für den Import und Export von Metaproteomdaten (mzIdentML) erweitert. Der Webservice wird zukünftig vom de.NBI-Zentrum Bielefeld-Gießen (Center for Microbial Bioinformatics) gehostet, mit dem das de.NBI-Partnerprojekt MetaProtServ assoziiert ist.
COOPeR: Cross-device OLTP/OLAP PRocessing
Laufzeit: 01.09.2016 bis 30.06.2021
Heutzutage stehen Datenbanksysteme vor zwei Herausforderungen. Auf der einen Seite müssen Datenbanksysteme Online-Transaction-Processing (OLTP) und Online-Analytical-Processing (OLAP) kombinieren, um Echtzeitanalysen von Geschäftsprozessen zu ermöglichen. Die Echtzeitanalysen von Geschäftsprozessen ist notwendig, um die Qualität der erstellten Berichte und Analysen zu verbessern, weil aktuelle Daten für die Analyse verwendet werden an Stelle von historischen Daten,die in traditionellen OLAP-Systemen verarbeitet werden. Auf der anderen Seite, werden Computersysteme zunehmend heterogener, um bessere Hardware-Leistung bereitzustellen. Die Architektur wechselt hierbei von Computersystemen mit Single-Core- CPUs zu Multi-Core-CPUs unterstützt von Ko-Prozessoren. Datenbanksysteme müssen beide Trends berücksichtigen, um die Qualität der Systeme zu verbessern, um die Leistung zu erhöhen, und um sicherzustellen, dass Datenbanksysteme künftigen Anforderungen (z.B. komplexere Anfragen oder erhöhte Datenvolumen) genügen.Leider konzentrieren sich aktuelle Forschungsansätze, jeweils nur auf eine der beiden Herausforderungen, entweder auf die Kombination von OLTP und OLAP Workloads in traditionellen CPU-basierte Systeme oder auf Ko-Prozessor-Beschleunigung für einen einzigen Workload-Typ. Daher gibt es keinen ganzheitlichen Ansatz der beide Herausforderungen berücksichtigt. In diesem Projekt wollen wir beide Herausforderungen von Datenbanksystemen berücksichtigen, um eine effiziente Verarbeitung von kombinierten OLTP/ OLAP-Workloads in hybriden CPU/Ko-Prozessor-Systemen zu ermöglichen. Dies ist notwendig, um Echtzeit-Business-Intelligence zu realisieren. Die größte Herausforderung ist hierbei die ACID-Eigenschaften für OLTP und kombinierten OLTP/OLAP-Workloads in hybriden Systemen zu gewährleisten, und gleichzeitig eine effiziente Verarbeitung der kombinierten Workloads zu ermöglichen.
Recommending Cloned Features for Adopting Systematic Software Reuse
Laufzeit: 01.05.2018 bis 30.04.2021
Organizations heavily rely on forking (or cloning) to implement customer-specific variants of a system. While this approach can have several disadvantages, organizations fear to extract reusable features later on, due to the corresponding efforts and risks. A particularly challenging, yet poorly supported, task is to decide what features to extract. To tackle this problem, we aim to develop an analysis system that proposes suitable features based on automated analyses of the cloned legacy systems. To this end, we are concerned with a several closely related research areas: Cost modeling for software product lines; empirical studies on system evolution, processes, and human factors; as well as concepts to derive reusable features from clones based on, for example, feature location and code clone detection.
Adaptive Data Management in Evolving Heterogeneous Hardware/Software Systems (ADAMANT)
Laufzeit: 01.10.2017 bis 31.12.2020
Die Entwicklung von Datenbanksystemen steht vor großen Herausforderungen: Zum einen wandeln sich die Anwendungsszenarien von reinen relationalen zu graph- oder strombasierten Analysen. Zum anderen wird die eingesetzte Hardware heterogener, da neben gewöhnlichen CPUs auch spezialisierte, hoch performante Co-Prozessoren wie z.B. Graphics Processing Unit oder Field Programmable Gate Arrays (FPGAs) eingesetzt werden. Es konnte gezeigt werden, dass durch Operatoren, die für einen speziellen Co-Prozessor optimiert wurden, ein Performancegewinn erreicht wird. Jedoch sind die meisten Ansätze zur Verarbeitung auf einem einzigen Prozessortyp limitiert und betrachten nicht das Zusammenspiel aller (Co-)Prozessoren. Dadurch bleibt Optimierungs- und Parallelisierungspotential ungenutzt. Darüber hinaus bieten Betrachtungen eines einzelnen Operators auf einem einzigen (Co-)Prozessor wenige Möglichkeiten zur Verallgemeinerung für neue Anwendungsgebiete oder Co-Prozessortypen. Im Rahmen dieses Projektes entwerfen wir Konzepte zur Integration von unterschiedlichen Operatoren und heterogenen (Hardware-)Co-Prozessortypen für adaptive Datenbanksysteme. Wir entwickeln Optimierungsstrategien, die die individuellen Eigenschaften der Co-Prozessortypen und die diesen Systemen inhärente Parallelität ausnutzen. Dabei betrachten wir relationale und graphbasierte Analysen, sodass die hergeleiteten Konzepte nicht auf ein bestimmtes Anwendungsszenario beschränkt sind. Wir werden Schnittstellen und Konzepte zur Abstraktion der Operatoren und Co-Prozessortypen definieren. Des Weiteren müssen die Eigenschaften von Operatoren und Co-Prozessortypen allen Systemebenen zur Verfügung stehen, sodass die Softwareebene besondere Charakteristika der (Co-)Prozessortypen und die Hardwareebene unterschiedliche Eigenschaften von Operatoren und Daten berücksichtigt. Die Verfügbarkeit dieser Charakteristika ist von hoher Relevanz für die globale Anfrageoptimierung, um eine passende Ausführungsmethode zu wählen. Es ist außerdem nötig, den Entwurfsraum der Anfrageverarbeitung auf heterogenen Hardwarearchitekturen zu analysieren und dabei auf Parallelität in der Funktion, den Daten, und zwischen (Co-)Prozessoren zu achten. Aufgrund der dadurch hervorgerufenen Komplexität des Entwurfsraums verfolgen wir einen verteilten Ansatz, in dem die Optimierung soweit möglich an die niedrigsten Ebenen delegiert wird, da diese Informationen über die spezifischen Charakteristika haben. So werden diese effizienter ausgenutzt. Um eine gegenseitige Beeinflussung der Optimierungen zweier Ebenen zu vermeiden, beachten wir auch Optimierungsstrategien zwischen Ebenen. Dabei werden wir auch lernbasierte Methoden einsetzen, um durch eine Evaluierung von Optimierungsentscheidungen zur Laufzeit künftige Entscheidungen zu verbessern. Auch sind diese Methoden am besten geeignet Charakteristika zu erfassen, die zur Entwurfszeit nicht berücksichtigt wurden, wie es häufig mit der Laufzeitrekonfiguration von FPGAs erfolgt.
Efficient and Effective Entity Resolution Under Cloud-Scale Data
Laufzeit: 01.07.2014 bis 30.04.2020
There might exist several different descriptions for one real-world entity. The differences may result from typographical errors, abbreviations, data formatting, etc. However, the different descriptions may lower data quality and lead to misunderstanding. Therefore, it is necessary to be able to resolve and clarify such different descriptions. Entity Resolution (ER) is a process to identify records that refer to the same real-world entity. It is also known under several other names. If the records to be identified are all located within a single source, it is called de-duplication. Otherwise, in the field of computer science it is also typically referred to data matching, record linkage, duplicate detection, reference reconciliation, object identification. In the database domain, ER is synonymous with similarity join. Today, ER plays a vital role in diverse areas, not only in the traditional applications of census, health data or national security, but also in the network applications of business mailing lists, online shopping, web searches, etc. It is also an indispensable step in data cleaning, data integration and data warehousing. The use of computer techniques to perform ER dates back to the middle of the last century. Since then, researchers have developed many techniques and algorithms for ER due to its extensive applications. In its early days, there are two general goals: efficiency and effectiveness, which means how fast and how accurately an ER task can be solved. In recent years, the rise of the web has led to the extension of techniques and algorithms for ER. Such web data (also known as big data) is often semi-structured, comes from diverse domains and exists on a very large scale. These three properties make big data qualitatively different from traditional data, which brings new challenges to ER that require new techniques or algorithms as solutions. To be specific, specialized similarity measures are required for semi-structured data; cross-domain techniques are needed to handle data from diverse domains; parallel techniques are needed to make algorithms not only efficient and effective, but also scalable, so as to be able to deal with the large scale of the data. This project focuses on the last point: parallelize the process of entity resoution. The specific research direction is to explore several big data processing frameworks to know their advantages and disadvantages on performing ER.
Software Product Line Feature Extraction from Natural Language Documents using Machine Learning Techniques
Laufzeit: 11.05.2016 bis 29.02.2020
Feature model construction from the requirements or textual descriptions of products can be often tedious and ineffective. In this project, through automatically learning natural language documents of products, cluster tight-related requirements into features in the phase of domain analysis based on machine learning techniques. This method can assist the developer by suggesting possible features, and improve the efficiency and accuracy of feature modeling to a certain extent.
This research will focus on feature extraction from requirements or textual descriptions of products in domain analysis. Extract the descriptors from requirements or textual descriptions of products. Then, descriptors are transformed into vectors and form a word vector space. Based on clustering algorithm, a set of descriptors are clustered into features. Their relationships will be inferred. Design the simulation experiment of feature extraction from natural language documents of products to prove that it can handle feature-extracting in terms of machine learning techniques.
Legal Horizon Scanning
Laufzeit: 04.04.2017 bis 30.11.2019
Every company needs to be compliant with national and international laws and regulations. Unfortunately, staying complied is a challenging tasks based on the volume and velocity of laws and regulations. Furthermore, laws are often incomplete or inconclusive, whereby also court judgments need to be considered for compliance. Hence, companies in different sectors, e.g. energy, transport, or finance, are spending millions of dollars every year to ensure compliance each year. In this project, we want to automate the process of identifying and analyzing the impact of (changing) laws, regulations, and court judgments using a combination of Information Retrieval, Data Mining and Scalable Data Management techniques. Based on the automated identification and impact analysis, not only the costs for compliance can be reduced, but also the quality can be increased.
GPU-accelerated Join-Order Optimization
Laufzeit: 01.10.2016 bis 09.11.2019
Different join orders can lead to a variation of execution times by several orders of magnitude, which makes join-order optimization to one of the most critical optimizations within DBMSs. At the same time, join-order optimization is an NP-hard problem, which makes the computation of an optimal join-order highly compute-intensive. Because current hardware architectures use highly specialized and parallel processors, the sequential algorithms for join-order optimization proposed in the past cannot fully utilize the computational power of current hardware architectures. Although existing approaches for join-order optimization such as dynamic programming benefit from parallel execution, there are no approaches for join-order optimization on highly parallel co-processors such as GPUs.
In this project, we are building a GPU-accelerated join-order optimizer by adapting existing join-order optimization approaches. Here, we are interested in the effects of GPUs on join-order optimization itself as well as the effects for query processing. For GPU-accelerated DBMSs, such as CoGaDB, using GPUs for query processing, we need to identify efficient scheduling strategies for query processing and query optimization tasks such that the GPU-accelerated optimization does not
slow down query processing on GPUs.
(Semi)-Automatic Approach to Support Literature Analysis for Software Engineers
Laufzeit: 01.11.2017 bis 31.10.2019
Researchers perform literature reviews to synthesize existing evidence regarding a research topic. While being important means to condense knowledge, conducting a literature analysis, particularly, systematic literature review, requires a large amount of time and effort. Consequently, researchers are considering semi-automatic approaches to facilitate different stages of the review process. Surveys have shown that two of the most time consuming tasks within the literature review process are: to select primary studies and to assess their quality. To assure quality and reliability of the findings from a literature study, the quality of included primary studies must be evaluated. Despite being critical stages, these still lack the support of semi-automatic tools and hence, mostly performed manually. In this PhD thesis, we aim to address this gap in the current state of research and develop techniques that support the selection and assessment of primary studies for literature analyses. For the assessment of studies, we begin with exploring the information available from the digital libraries most commonly used by software engineering researchers, such as, the ACM Digital Library, IEEE Xplore, Science Direct, Springer Link, Web of Science. The information regarding authors, citation counts and publication venues are particularly important as these can provide an initial insight about the studies. Hence, a tool that captures such bibliographic information from the digital libraries and score the studies based on defined quality metrics, would certainly be beneficial to accelerate the process. However, for accurate assessment, the approach could be further extended to an in-depth full text investigation. We believe, developing such a strategy would indeed be useful for researchers conducting literature analyses, particularly software engineers, or any other research domain.
Graph-Based Analysis of Highly-Configurable Systems
Laufzeit: 01.11.2015 bis 01.11.2018
Todays's software systems are getting more complex every day and contain an increasing number of configuration options to customize their behavior. Developers of these highly-configurable systems face the challenge of finding faults within the variable source code and maintaining it without introducing new ones.
In order to understand variable source code of even medium-sized systems developers have to rely on multiple analysis techniques. However, current analysis techniques often do not scale well with the
number of configuration options or utilize heuristics which lead to results that are less reliable.
We propose an alternative approach for analyzing highly-configurable systems based on graph theory.
Both variability models, which describe a system's configuration options and their interdependencies, and variable source code can be represented by graph-like data structures.
Therefore, we want to introduce novel analysis techniques based on well-known graph algorithms and evaluate them regrading their result quality and performance during runtime.
Secure Data Outsourcing to Untrusted Clouds
Laufzeit: 01.10.2014 bis 30.09.2018
Cloud storage solutions are being offered by many big vendors like Google, Amazon & IBM etc. The need of Cloud Storage has been driven by the generation of Big Data in almost every corporation. The biggest hurdle in outsourcing data to Cloud Data vendors is the Security Concern of the data owners. These security concerns have become the stumbling block in large scale adoption of Third Party Cloud Databases. The focus of this PhD project is to give a comprehensive framework for the Security of Outsourced Data to Untrusted Clouds. This framework includes Encrypted Storage in Cloud Databases, Secure Data Access, Privacy of Data Access & Authenticity of Stored Data in the Cloud. This security framework will be based on Hadoop based open source projects.
On the Impact of Hardware on Relational Query Processing
Laufzeit: 01.09.2013 bis 31.08.2018
Satisfying the performance needs of tomorrow typically implies using modern processor capabilities (such as single instruction, multiple data) and co-processors (such as graphics processing units) to accelerate database operations. Algorithms are typically hand-tuned to the underlying (co-)processors. This solution is error-prone, introduces high implementation and maintenance cost and is not portable to other (co-)processors. To this end, we argue for a combination of database research with modern software-engineering approaches, such as feature-oriented software development (FOSD). Thus, the goal of this project is to generate optimized database algorithms tailored to the underlying (co-)processors from a common code base. With this, we maximize performance while minimizing implementation and maintenance effort in databases on new hardware. Project milestones:
- Creating a feature model: Arising from heterogeneous processor capabilities, promising capabilities have to be identified and structured to develop a comprehensive feature model. This includes fine-grained features that exploit the processor capabilities of each device.
- Annotative vs. compositional FOSD approaches: Both approaches have known benefits and drawbacks. To have a suitable mechanism to construct hardware-tailored database algorithms using FOSD, we have to evaluate which of these two approaches is the best for our scenario.
- Mapping features to code: Arising from the feature model, possible code snippets to implement a feature have to be identified.
- Performance evaluation: To validate our solution and derive rules for processor allocation and algorithm selection, we have to perform an evaluation of our algorithms.
Model-Based Refinement of Product Lines
Laufzeit: 01.04.2015 bis 31.03.2018
Software product lines are families of related software systems that are developed by taking variability into account during the complete development process. In model-based refinement methods (e.g., ASM, Event-B, Z, VDM), systems are developed by stepwise refinement of an abstract, formal model.
In this project, we develop concepts to combine model-based refinement methods and software product lines. On the one hand, this combination aims to improve the cost-effectiveness of applying formal methods by taking advantage of the high degree of reuse provided by software product lines. On the other hand, it helps to handle the complexity of product lines by providing means to detect defects on a high level of abstraction, early in the development process.
EXtracting Product Lines from vAriaNTs (EXPLANT)
Laufzeit: 16.02.2016 bis 15.02.2018
Software-Produktlinien fördern die strategische Wiederverwendung von Software und den systematischen Umgang mit Variabilität. In der Praxis werden Wiederverwendung und Variabilität jedoch häufig ad hoc realisiert, indem Artefakte kopiert und angepasst werden (der Clone-and-Own-Ansatz). Aufgrund mangelnder Automatisierung ist die Übertragung von Änderungen (z.B. Fehlerbeseitigungen, Performance-Verbesserungen) auf mehrere geklonte Produktvarianten sowie der Austausch von Funktionalität zwischen Varianten zeitaufwendig und fehleranfällig.
Zur Lösung schlagen wir die schrittweise Überführung geklonter Produktvarianten in eine kompositionale Software-Produktlinie (SPL) vor. Die Varianten werden zunächst unverändert in eine initiale SPL integriert. Anschließend wird diese SPL mittels kleiner, Semantik-erhaltender Schritte in eine gut strukturierte, modulare Ziel-SPL transformiert. Ein derartiges Vorgehen bietet gegenüber existierenden Ansätzen zur Überführung von Produktvarianten in SPLs folgende Vorteile:
1) Die SPL kann unmittelbar produktiv eingesetzt werden. Bisher waren lange Produktionsstopps erforderlich, da die Überführung nicht unterbrochen werden konnte.
2) Der kompositionale Implementierungsansatz begünstigt die Wartbarkeit. Die Probleme der in der Praxis verbreiteten annotativen SPL-Implementierungsansätze (u. a. wenig modularer, schlecht verständlicher Programm-Code) werden vermieden.
3) Die Semantik-Erhaltung der ursprünglichen Varianten wird garantiert.
Kernziel unseres Projekts ist die Erforschung Varianten-erhaltender Refactorings. Darunter verstehen wir konsistente Transformationen auf Modell- und Implementierungsebene, die Semantik-erhaltend bezüglich aller möglichen Produkte der SPL sind. Diese Refactorings werden wir mit Code-Clone-Erkennung kombinieren, um den Grad der Wiederverwendung schrittweise zu erhöhen und somit den Wartungsaufwand und die zukünftige Defektrate zu senken. Zudem werden wir Feature-Lokalisierungstechniken in multiplen Produktvarianten erforschen. In Verbindung mit Varianten-erhaltendem Refactoring ermöglichen diese Techniken die schrittweise Feature-orientierte Extraktion von Funktionalität aus multiplen Produktvarianten. Durch Komposition der extrahierten Features können nicht nur die ursprünglichen Varianten rekonstruiert werden. Es werden darüber hinaus neue Varianten möglich, sodass noch gezielter auf Anforderungen reagiert werden kann.
A Personalized Recommender System for Product-Line Configuration
Laufzeit: 15.01.2015 bis 31.12.2017
Today s competitive marketplace requires industries to understand the unique and particular needs of their customers. Software product line enables industries to create individual products for every customer by providing an interdependent set of features that can be configured to form personalized products. However, as most features are interdependent, users need to understand the impact of their gradual decisions in order to make the most appropriate choices. Thus, especially when dealing with large feature models, specialized assistance is needed to guide the users personalizing valid products. In this project, we aim using recommender system and search-based software engineering techniques to handle the product configuration process in large and complex product lines.
Software Product Line Testing
Laufzeit: 01.10.2013 bis 30.09.2017
Exhaustively testing every product of a software product line (SPL) is a difficult task due to the combinatorial explosion of the number of products. Combinatorial interaction testing is a technique to reduce the number of products under test. In this project, we aim to handle multiple and possibly conflicting objectives during the test process of SPL.
Southeast Asia Research Network: Digital Engineering
Laufzeit: 01.06.2013 bis 31.05.2017
German research organizations are increasingly interested in outstanding Southeast Asian institutions as partners for collaboration in the fields of education and research. Bilateral know-how, technology transfer and staff exchange as well as the resultant opportunities for collaboration are strategically important in terms of research and economics. Therefore, the establishment of a joint research structure in the field of digital engineering is being pursued in the project "SEAR DE Thailand" under the lead management of Otto von Guericke University Magdeburg (OvGU) in cooperation with the Fraunhofer Institute for Factory Operation and Automation (IFF) and the National Science and Technology Development Agency (NSTDA) in Thailand.
Modern Data Management Technologies for Genome Analysis
Laufzeit: 01.12.2013 bis 31.12.2016
Genome analysis is an important method to improve disease detection and treatment. The introduction of next generation sequencing techniques allows to generate genome data for genome analysis in less time and at reasonable cost. In order to provide fast and reliable genome analysis, despite ever increasing amounts of genome data, genome data management and analysis techniques must also improve. In this project, we develop concepts and approaches to use modern database management systems (e.g., column-oriented, in-memory database management systems) for genome analysis. Project's scope:
- Identification and evaluation of genome analysis use cases suitable for database support
- Development of data management concepts for genome analysis using modern database technology with regard to chosen use cases and data management aspects such as data integration, data integrity, data provenance, data security
- Development of efficient data structures for querying and processing genome data in databases for defined use cases
- Exploiting modern hardware capabilities for genome data processing
Nachhaltiges Variabilitätsmanagement von Feature-orientierten Software-Produktlinien (NaVaS)
Laufzeit: 01.09.2014 bis 31.08.2016
Die Verwendung von Produktlinientechnologie, wie sie beispielsweise in der Automobilbranche seit Jahrzehnten erfolgreich eingesetzt wird, bietet enormes Potential um die Softwareentwicklung zu revolutionieren. Angelehnt an die Wiederverwendung von Motortypen, die mit verschiedenen Karosserien eines Automobilherstellers kombiniert werden können, ermöglichen Softwareproduktlinien die Erstellung von maßgeschneiderten Softwareprodukten auf der Basis gemeinsamer Softwarebestandteile. Ziel des Projektes NaVaS ist es daher, die Entwicklung von Softwareprodukten auf der Basis von Softwareproduktlinien zu vereinfachen und somit die Etablierung dieser Entwicklungstechnologie voranzutreiben.
Kernarbeit des Projektes
Zur Unterstützung der Entwicklung von Softwareproduktlinien wird im Projekt NaVaS eine Softwareentwicklungsumgebung zur Erstellung von Produktlinien entwickelt. Diese basiert auf einem bereits bestehenden Forschungsdemonstrator und wird sowohl funktional und auch aus Anwendersicht den Anforderungen im kommerziellen Gewerbe und der Forschung angepasst. Hierbei werden langjährige Erfahrung bei der Entwicklung maßgeschneiderter Software seitens der METOP GmbH und der Erforschung alternativer Technologien seitens der Universität Magdeburg verschmolzen und deren Praktikabilität mit Hilfe von geeigneten assoziierten Partnern aus Industrie und Forschung sichergestellt. Die Bereitstellung einer Entwicklungsumgebung für Softwareproduktlinien, entsprechend des Forschungsdemonstrators, eröffnet somit neue Möglichkeiten. Entwicklungszeiten würden sich stark verkürzen und damit Produkte schneller am Markt verfügbar sein. Durch den zusätzlich geringeren Wartungsaufwand könnten weitere Kosten eingespart werden.
Software Product Line Languages and Tools III
Laufzeit: 01.07.2012 bis 31.12.2015
In this project we focus on research and development of tools and languages for software product lines. Our research focuses usability, flexibility and complexity of current approaches. Research includes tools as FeatureHouse, FeatureIDE, CIDE, FeatureC++, Aspectual Mixin Layers, Refactoring Feature Modules, and formalization of language concepts. The research centers around the ideas of feature-oriented programming and explores boundaries toward other development paradigms including type systems, refactorings, design patterns, aspect-oriented programming, generative programming, model-driven architectures, service-oriented architectures and more.
- FeatureIDE: An Extensible Framework for Feature-Oriented Software Development
- SPL2go: A Catalog of Publicly Available Software Product Lines
A Hybrid Query Optimization Engine for GPU accelerated Database Query Processing II
Laufzeit: 01.04.2014 bis 31.03.2015
Performance demands for database systems are ever increasing and a lot of research focus on new approaches to fulfill performance requirements of tomorrow. GPU acceleration is a new arising and promising opportunity to speed up query processing of database systems by using low cost graphic processors as coprocessors. One major challenge is how to combine traditional database query processing with GPU coprocessing techniques and efficient database operation scheduling in a GPU aware query optimizer. In this project, we develop a Hybrid Query Processing Engine, which extends the traditional physical optimization process to generate hybrid query plans and to perform a cost based optimization in a way that the advantages of CPUs and GPUs are combined. Furthermore, we aim at a database architecture and data model independent solution to maximize applicability.
- HyPE-Library
- HyPE is a hybrid query processing engine build for automatic selection of processing units for coprocessing in database systems. The long-term goal of the project is to implement a fully fledged query processing engine, which is able to automatically generate and optimize a hybrid CPU/GPU physical query plan from a logical query plan. It is a research prototype developed by the Otto-von-Guericke University Magdeburg in collaboration with Ilmenau University of Technology
- CoGaDB
- CoGaDB is a prototype of a column-oriented GPU-accelerated database management system developed at the University of Magdeburg. Its purpose is to investigate advanced coprocessing techniques for effective GPU utilization during database query processing. It uses our hybrid query processing engine (HyPE) for the physical optimization process.
Clustering the Cloud - A Model for Self-Tuning of Cloud Datamanagement Systems
Laufzeit: 01.10.2011 bis 31.03.2015
Over the past decade, cloud data management systems became increasingly popular, because they provide on-demand elastic storage and large-scale data analytics in the cloud. These systems were built with the main intention of supporting scalability and availability in an easily maintainable way. However, the (self-) tuning of cloud data management systems to meet specific requirements beyond these basic properties and for possibly heterogeneous applications becomes increasingly complex. Consequently, the self-management ideal of cloud computing is still to be achieved for cloud data management. The focus of this PhD project is (self-) tuning for cloud data management clusters that are serving one of more applications with divergent workload types. It aims to achieve dynamic clustering to support workload based optimization. Our approach is based on logical clustering within a DB cluster based on different criteria such as: data, optimization goal, thresholds, and workload types.
Analysis Strategies for Software Product Lines
Laufzeit: 01.02.2010 bis 31.12.2014
Software-product-line engineering has gained considerable momentum in recent years, both in industry and in academia. A software product line is a set of software products that share a common set of features. Software product lines challenge traditional analysis techniques, such as type checking, testing, and formal verification, in their quest of ensuring correctness and reliability of software. Simply creating and analyzing all products of a product line is usually not feasible, due to the potentially exponential number of valid feature combinations. Recently, researchers began to develop analysis techniques that take the distinguishing properties of software product lines into account, for example, by checking feature-related code in isolation or by exploiting variability information during analysis. The emerging field of product-line analysis techniques is both broad and diverse such that it is difficult for researchers and practitioners to understand their similarities and differences (e.g., with regard to variability awareness or scalability), which hinders systematic research and application. We classify the corpus of existing and ongoing work in this field, we compare techniques based on our classification, and we infer a research agenda. A short-term benefit of our endeavor is that our classification can guide research in product-line analysis and, to this end, make it more systematic and efficient. A long-term goal is to empower developers to choose the right analysis technique for their needs out of a pool of techniques with different strengths and weaknesses.
Consistent data management for cloud gaming
Laufzeit: 01.07.2012 bis 31.12.2014
Cloud storage systems are able to meet the future requirements of the Internet by using non-relational database management systems (NoSQL DBMS). NoSQL system simplifies the relational database schema and the data model to improve system performances, such as system scalability and parallel processing. However, such properties of cloud storage systems limit the implementation of some Web applications like massively multi-player online games (MMOG). In the research described here, we want to expand existing cloud storage systems in order to meet requirements of MMOG. We propose to build up a transaction layer on the cloud storage layer to offer flexible ACID levels. As a goal the transaction processing should be offered to game developers as a service. Through the use of such an ACID level model both the availability of the existing system and the data consistency during the interactivity of multi-player can be converted according to specific requirements.
Load-balanced Index Structures for Self-tuning DBMS
Laufzeit: 01.01.2010 bis 31.12.2014
Index tuning as part of database tuning is the task of selecting and creating indexes with the goal of reducing query processing times. However, in dynamic environments with various ad-hoc queries it is difficult to identify potentially useful indexes in advance. The approach for self-tuning index cogurations developed in previous research provides a solution for continuous tuning on the level of index configurations, where configurations are a set of common index structures. In this project we investigate a novel approach, that moves the solution of the problem at hand to the level of the index structures, i.e. to create index structures which have an inherently self-optimizing structure.
Minimal-invasive integration of the provenance concern into data-intensive systems
Laufzeit: 01.11.2013 bis 31.12.2014
In the recent past a new research topic named provenance gained much attention. The purpose of provenance is to determine origin and derivation history of data. Thus, provenance is used, for instance, to validate and explain computation results. Due to the digitalization of previously analogue process that consume data from heterogeneous sources and increasing complexity of respective systems, it is a challenging task to validate computation results. To face this challenge there has been plenty of research resulting in solutions that allow for capturing of provenance data. These solutions cover a broad variety of approaches reaching from formal approaches defining how to capture provenance for relational databases, high-level data models for linked data in the web, to all-in-one solutions to support management of scientific work ows. However, all these approaches have in common that they are tailored for their specific use case. Consequently, provenance is considered as an integral part of these approaches that can hardly be adjusted for new user requirements or be integrated into existing systems. We envision that provenance, which highly needs to be adjusted to the needs of specific use cases, should be a cross-cutting concern that can seamlessly be integrated without interference with the original system.
MultiPLe - Multi Software Product Lines
Laufzeit: 01.03.2012 bis 31.10.2014
Aus der zunehmenden Verbreitung von Softwareproduktlinien resultieren Multi-Software-Produktlinien (kurz Multiproduktlinien), komplexe Softwaresysteme, die aus einer Vielzahl voneinander abhängigen Softwareproduktlinien erstellt werden. Ziel des Projektes ist die Erarbeitung von Konzepten und Methoden zur systematischen Entwicklung von Multiproduktlinien. Schwerpunkt der zweiten Projektphase ist die Verallgemeinerung entwickelter Konzepte, um Kompositionssicherheit und Interoperabilität in heterogenen Multiproduktlinien zu erreichen, die mit unterschiedlichen Programmierparadigmen und Variabilitätsmechanismen entwickelt werden. Dazu muss für alle gültigen Konfigurationen einer Multiproduktlinie sichergestellt werden, dass die Konfiguration der beteiligten Produktlinien aufeinander abgestimmt sind, so dass die von einer Produktlinie benötigte Funktionalität von einer anderen Produktlinie bereitgestellt wird (semantische Interoperabilität) und syntaktische Korrektheit z. B. von Methodenaufrufen (syntaktische Interoperabilität) garantiert wird. Ziel ist es daher, Kompositionssicherheit auf Modellebene zu erreichen, um von Implementierungsdetails zu abstrahieren, sowie Interoperabilität auf Implementierungsebene (z. B. Typsicherheit) über unterschiedliche Variabilitätsmechanismen hinweg zu garantieren. Nur so ist eine skalierende Anwendung der Produktlinientechnologie zur Entwicklung komplexer heterogener Softwaresysteme möglich.
A Hybrid Query Optimization Engine for GPU accelerated Database Query Processing
Laufzeit: 01.04.2012 bis 31.03.2014
Performance demands for database systems are ever increasing and a lot of research focus on new approaches to fulfill performance requirements of tomorrow. GPU acceleration is a new arising and promising opportunity to speed up query processing of database systems by using low cost graphic processors as coprocessors. One major challenge is how to combine traditional database query processing with GPU coprocessing techniques and efficient database operation scheduling in a GPU aware query optimizer. In this project, we develop a Hybrid Query Processing Engine, which extends the traditional physical optimization process to generate hybrid query plans and to perform a cost based optimization in a way that the advantages of CPUs and GPUs are combined. Furthermore, we aim at a database architecture and data model independent solution to maximize applicability.
- HyPE-Library
- HyPE is a hybrid query processing engine build for automatic selection of processing units for coprocessing in database systems. The long-term goal of the project is to implement a fully fledged query processing engine, which is able to automatically generate and optimize a hybrid CPU/GPU physical query plan from a logical query plan. It is a research prototype developed by the Otto-von-Guericke University Magdeburg in collaboration with Ilmenau University of Technology
- CoGaDB
- CoGaDB is a prototype of a column-oriented GPU-accelerated database management system developed at the University of Magdeburg. Its purpose is to investigate advanced coprocessing techniques for effective GPU utilization during database query processing. It uses our hybrid query processing engine (HyPE) for the physical optimization process.
STIMULATE -> Management/Nachwuchs -> Management und Organisationsstruktur
Laufzeit: 01.03.2013 bis 28.02.2014
Konzepte zur verbesserten Operationsvorbereitung und -durchführung, als auch einer langfristigen Qualitätssicherung werden im Projekt betrachtet. Es wird ein Rahmenkonzept entwickelt, dass als Grundlage für die Entwicklung eines Daten- und Prozessmodells für den Forschungscampus mit dem Ziel einer effizienten Integration und Neuentwicklung innovativer Infrastrukturen dient. Die provenance-sensitive Speicherung und Verarbeitung medizinischer Daten liefert einen angepassten Trade Off zwischen den Anforderungen an die Speicherung und Verarbeitung der Daten in Bezug auf Nachvollziehbarkeit bzw. Reproduzierbarkeit auf der einen und den Anforderungen des Datenschutzes auf der anderen Seite.
ViERforES-II: Interoperabilität
Laufzeit: 01.01.2011 bis 30.09.2013
Die Funktionalität neuer Produkte wird durch einen zunehmenden Anteil von Software in Form von Eingebetteten Systemen erzielt. Im Zusammenwirken mit anderen funktionsbestimmenden Komponenten komplexer technischer Systeme erfordert das neue Techologien zur Beherrschung von höchster Sicherheit und Zuverlässigkeit von Produktentwicklungen. Ziel von ViERforES ist es, durch Einsatz von Virtueller und Erweiterter Realität auch nicht physikalische Produkteigenschaften sichtbar zu machen und so adäquate Methoden und Werkzeuge für das Engineering zu entwickeln.
Die Bereitstellung von Lösungen zur gesamtheitlichen Betrachtung komplexer Produkte oder Anlagen in der Entwicklung, dem Tests und während des Betriebes stellt die Informationstechnik vor große Herausforderungen. Unter anderem müssen unabhängig voneinander modellierte Komponenten in einen Gesamtkontext eingebracht werden, wofür die virtuelle oder erweiterte Realität als integrierter Arbeitsbereich nutzbar gemacht werden kann. Ziel des Teilprojektes "Interoperabilität für digitale Produkte mit eingebetteten Systemen" ist daher die Sicherstellung der Interoperabilität der beteiligten heterogenen Systeme und der von diesen verwalteten Modelle. Dies reicht von der syntaktischen (verschiedene Schnittstellen, Datenmodelle, etc.) über die semantische (Bedeutung und Zusammenhang von unterschiedlich modellierten Daten und Funktionalitäten) bis zur pragmatischen Ebene (Verwendung durch Nutzer, Unterstützung von Arbeitsabläufen, Kooperation).
In der 2. Phase sollen insbesondere die nicht-funktionale Interoperabilität zwischen Systemen sowie die Interoperabilität zwischen heterogenen Simulationssystemen betrachtet werden.
ViERforES-II: Vertrauenswürdige Systeme
Laufzeit: 01.01.2011 bis 30.09.2013
In diesem Arbeitspaket des Teilprojekts "Vertrauenswürdige Systeme" wird die Zuverlässigkeit eingebetteter Systeme auf Quelltextebene mit Fokus auf Programmverständnis und Wartbarkeit untersucht. Es geht darum, Konzepte und Visualisierungen zur Verbesserung des Programmverständnisses zu untersuchen und zu implementieren. Ergebnis auf dieser Ebene soll eine prototypische Komponente für eine Entwicklungsumgebung sein, in der Konzepte zur optimalen Unterstützung des Programmverständnisses umgesetzt sind. Dadurch sollen z.B. Sicherheitslücken bereits auf Quelltextebene erkannt und behoben werden sowie die Wartung von Software unterstützt werden, sodass Wartungskosten gesenkt werden. Durch umfassende empirische Untersuchungen soll gezeigt werden, dass durch die umgesetzten Konzepte Gefährdungen der Security gesenkt werden können sowie die Wartung von Software veressert wird.
Virtuelle und Erweiterte Realität für höchste Sicherheit und Zuverlässigkeit Eingebetteter Systeme - Phase II (ViERforES II)
Laufzeit: 01.01.2011 bis 30.09.2013
Unter dem Titel Virtuelle und Erweiterte Realität für höchste Sicherheit und Zuverlässigkeit eingebetteter Systeme (ViERforES) begann ein Verbund aus universitärer und anwendungsorientierter Forschung sich den Herausforderungen zu stellen, die der verstärkte Einsatz moderner Informations- und Kommunikationstechnologien in den Anwendungsfeldern Automotive/Mobilität, Medizintechnik / Neurowissenschaften und Energiesysteme mit sich bringt.
Die Gemeinsamkeit der genannten drei Anwendungsfelder besteht darin, dass die in diesen Bereichen zu entwickelnden Produkte ihre Funktionalität durch einen wachsenden Anteil an Software realisieren. Damit die Produkte aus Deutschland weiterhin ihrem Anspruch an eine hohe Qualität und Zuverlässigkeit gerecht werden, ist es notwendig neue Methoden des Engineerings zu entwickeln. Die bisher etablierten Methoden der Produkt- und Prozessentwicklung müssen folglich auch auf das Software-Engineering erweitert werden.
Die erreichten Ergebnisse von ViERforES wurden durch den Aufbau von Demonstratoren in jedem Anwendungsfeld gezeigt. Dadurch konnten Industrieunternehmen gewonnen werden, die das Projektkonsortium in dem nun anschließenden Projekt ViERforES II verstärken. Ihre Aufgabe ist es, die anwendungsnahe Weiterentwicklung der Demonstratoren zu unterstützen, so dass die Funktionserprobung ihrer Produkte und Prozesse zukünftig in einer virtuellen Umgebung erfolgen kann.
Digi-Dak (Digitale Fingerspuren) - Teilprojekt "Datenvorverarbeitung und Datenhaltung"
Laufzeit: 01.01.2010 bis 31.05.2013
Das Projekt Digi-Dak widmet sich der Erforschung von Mustererkennungstechniken für Fingerspuren, welche mittels berührungsloser optischer 3D Oberflächensensortechnik erfasst werden. Das generelle Ziel ist es, eine Verbesserung/Unterstützung der kriminalistischen Forensik (Daktyloskopie) zu erzielen. Insbesondere liegt der Fokus des Projektes dabei auf potentiellen Szenarien in präventiven und forensischen Prozessen, speziell auch für die Überlagerung von Spuren oder die Altersdetektion. Ziel des Teilprojektes Datenvorverarbeitung und Datenhaltung ist es, die erfassten (dreidimensionalen) Sensordaten aufzubereiten und so zu speichern, dass der automatisierte Prozess der Fingerspurenerfassung unterstützt bzw. verbessert wird. In diesem Rahmen werden Methoden zur effizienten Speicherung und Anfragebearbeitung von hochdimensionalen Daten erforscht. Darüber hinaus sollen Methoden und Konzepte erforscht werden, die die Beweiskraft der erfassten Fingerspuren auch nach deren Vor- bzw. Weiterverarbeitung gewährleisten.
Optimierungs- und Selbstverwaltungskonzepte für Data-Warehouse-Systeme
Laufzeit: 01.01.2011 bis 12.04.2013
Data-Warehouse-Systeme werden seit einiger Zeit für Markt- und Finanzanalysen in vielen Bereichen der Wirtschaft eingesetzt. Die Anwendungsgebiete dieser Systeme erweitern sich dabei ständig, und zusätzlich steigen die zu haltenenden Datenmengen (historischer Datenbestand) immer schneller an. Da es sich oft um sehr komplexe und zeitkritische Anwendungen handelt, müssen die Analysen und Berechnungen auf den Daten immer weiter optimiert werden. Dazu allein reicht die stetig steigende Leistung von Rechner- und Serversystemen nicht aus, da die Anwendungen immer neue Anforderungen und komplexer werdende Berechnungen benötigen. Dadurch wird auch klar, daß der zeitliche und finanzielle Aufwand zum Betrieb solcher Systeme immens ist.
Im Rahmen dieses Projekts soll untersucht werden, welche Möglichkeiten existieren, bisherige Ansätze zu erweitern und neue Vorschläge in bestehende System zu integrieren um die Leistung dieser zu steigern. Um dieses Ziel zu erreichen sollen Ansätze aus dem Bereich des Self-Tunings genutzt werden, denn so können die Systeme sich autonom an ständig ändernde Rahmenbedingungen und Anforderungen anpassen. Diese Ansätze sollen durch Erweiterungen wie zum Beispiel die Unterstützung von Bitmap-Indexen verbessert werden. Weiterhin soll Bezug genommen werden auf tiefere Ebenen der Optimierung, wodurch eine physische Optimierung möglich (autonom) und erleichtert werden soll.
Software Product Line Languages and Tools II
Laufzeit: 01.01.2011 bis 30.06.2012
This project focuses on research and development of tools and languages for software product line development. The research aims at improving usability, flexibility and complexity of current approaches. This includes tools as FeatureC++, FeatureIDE, and CIDE as well as concepts like Aspect Refinement, Aspectual Mixin Layers, and formalization of language concepts. The research centers around the ideas of feature-oriented programming and explores boundaries toward other development paradigms including design patterns, aspect-oriented programming, generative programming, model-driven architectures, service-oriented architectures and more.
MultiPLe - Multi Software Product Lines
Laufzeit: 01.09.2009 bis 31.12.2011
Die zunehmende Verbreitung von Softwareproduktlinien in allen Bereichen der Softwareentwicklung resultiert in komplexen Softwaresystemen, die aus einer Vielzahl von Instanzen unterschiedlicher Produktlinien erstellt werden. Beispielsweise können ein Datenbankmanagementsystem und ein Betriebssystem jeweils als Produktlinie entwickelt und ein Gesamtsystem aus Instanzen dieser Produktlinien erstellt werden. Ein solches aus mehreren voneinander abhängigen Produktlinien bestehendes System kann als Multi-Software-Produktlinie aufgefasst werden. Zur Erstellung eines konkreten Gesamtsystems werden die einzelnen Produktlinieninstanzen entsprechend der vom Nutzer gewünschten Funktionalität maßgeschneidert, müssen zusätzlich aber aufeinander abgestimmt werden, um ein funktionsfähiges Gesamtsystem zu erhalten.
Ziel dieses Projektes ist die Erarbeitung von Konzepten und Methoden zur Entwicklung von Multi-Software-Produktlinien, die aus mehreren, voneinander abhängigen Produktlinien bestehen. Dazu sollen Grundlagen zur Modellierung, Implementierung und automatisierten Komposition von Multi-Software-Produktlinien erarbeitet werden.
COMO B3 - IT-Security Automotive
Laufzeit: 01.09.2007 bis 31.08.2011
Immer mehr IT-Komponenten finden den Weg in ein (Kraft)-Fahrzeug, sei es zur Steigerung des Komforts oder der Sicherheit. Die entsprechenden autarken Steuergeräte kommunizieren dabei über verschiedene Bussysteme und begründen dabei das IT-System Automobil. Durch das erhöhte Aufkommen von Kommunikation (auch über externe Schnittstellen, z.B. car-2-car) steigt sowohl das Sicherheitsrisiko/-bedürfnis als auch die zu verarbeitenden Daten.
Im Teilprojekt B3 des Forschungsprojektes COmpetence in MObility (COMO) sollen daher Konzepte für das automotive System geschaffen werden, um sowohl die Sicherheit im Auto dauerhaft zu gewaehrleisten (z.B. Abwehr gegen Angriffe auf IT-Komponenten) als auch das hohe Datenaufkommen auf effiziente Art und Weise durch Infrastruktursoftware (z.B. DBMS) zu handhaben.
Für das Datenmanagement wird dabei eine Produktlinienentwicklung angestrebt, die durch Anwendung neuer Programmiertechniken sowohl den ressourcenbedingten Einschränkungen im Automobil gerecht wird als auch die Kosten für die Neuentwicklung einzelner Komponenten durch Wiederverwendung minimiert.
Projektpartner sind Prof. J.Dittmann (AG Multimedia & Security) und Prof. G.Saake (AG Datenbanken) vom Institut für technische und betriebliche Informationssysteme (ITI) der OvGU als auch Prof. U. Jumar vom Institut für Automation und Kommunikation (ifak) der OvGU.
Datenschnittstellen und ganzheitliche Modelle für die funktionale Simulation (C1 Automotive)
Laufzeit: 01.09.2007 bis 31.08.2011
Ein ganzheitliches Virtual Engineering von der Entwicklung bis hin zur Fertigung von Produkten erfordert die Verbindung unterschiedlicher ingenieurwissenschaftlicher Disziplinen bezogen auf die Betrachtungsebenen und Detaillierungsgrade in ihren Modellwelten.
Ziel dieses Teilprojektes, welches im Rahmen des COmpetence in MObility (COMO) Projektes läuft, beinhaltet die Beschreibung, Spezifikation und Entwicklung von Modell- und Schnittstellenwerkzeugen zur Verwaltung der Daten. Die Sammlung von Werkzeugen umfasst Datentransformationen, Meta-Datenbank, die Informationen über Modelle, Komponenten und das System enthält.
Damit soll ein Beitrag zur Weiterentwicklung virtueller Technologien bzw. zur Verbesserung von deren Anwendbarkeit bei Engineering- und Planungsprozessen geleistet werden.
Projektpartner des Teilprojektes sind Prof. U. Gabbert vom Institut für Mechanik (IFME) Magdeburg, Prof. R. Kaspar vom Institut für Mobile Systeme (IMS) Magdeburg und Prof. M. Schenk vom Institut für Logistik und Materialflusstechnik (ILM) Magdeburg.
Referenzdatenmodelle für mechatronischen Entwurf, Modellbildung und Simulation (C3 Automotive)
Laufzeit: 01.09.2007 bis 31.08.2011
Ein ganzheitliches Virtual Engineering von der Entwicklung bis hin zur Fertigung von Produkten erfordert die Verbindung unterschiedlicher ingenieurwissenschaftlicher Disziplinen bezogen auf die Betrachtungsebenen und Detaillierungsgrade in ihren Modellwelten.
Das Teilprojekt C3, des COmpetence in MObility (COMO) Projektes, beinhaltet die Entwicklung einer Referenzdatenbank zur Verwaltung von komplexen Modellen und Abhängigkeiten, sowie die Spezifikation von Referenzdatenmodellen für den mechatronischen Entwurf, die Modellbildung und Simulation.
Das ganzheitliche Referenzdatenmodell wird verschiedenartige (u.a. mechanische, elektrische, regelungstechnische) Modelle in virtuelle Produktkomponenten integrieren. Damit soll ein Beitrag zur Weiterentwicklung virtueller Technologien bzw. zur Verbesserung von deren Anwendbarkeit bei Engineering- und Planungsprozessen geleistet werden.
Projektpartner des Teilprojektes ist Prof. M. Schenk vom Fraunhofer-Institut für Fabrikbetrieb und -automatisierung (IFF) Magdeburg.
Reflective and Adaptive Middleware for Software Evolution of Non-Stopping Information Systems
Laufzeit: 01.04.2008 bis 31.08.2011
Auch moderne Informationssysteme sind noch weit davon entfernt in unserer schnell-lebigen wettbewerbsorientierten Welt flexibel zu agieren bzw. zu reagieren. Neben der einfachen und flexiblen Inbetriebnahme bzw. Anpassung von Informations- und Geschäftsdiensten muss ein Höchstmaß an Qualität und Sicherheit gewährleistet werden. Um dieses zu erreichen, fokussiert der vorliegende Antrag auf die rigorose Entwicklung von selbstadaptiven und kontext-sensitiven verteilten Informationssystemen, welche sich dynamisch zur Laufzeit weiterentwickeln. Unser Ansatz sieht die Interaktion mit der Umwelt im Mittelpunkt. Als erster Schritt, wird eine reflexive Middleware entwickelt. Die Basisebene dieser Middleware wird UML-basiert entworfen und implementiert. Die darüberliegende Metaebene steuert die Evolution des Verhaltens und der Struktur mittels eines Script-basierten Ansatzes. Weiterhin enthält sie eine Instanz, welche die Konsistenz während der Adaption überwacht. Diese reflexive Middlewarewird dann um eine domänen-spezifische Architektur erweitert. Diese ermöglicht dynamische Rekonfiguration auf Basis von Graphtransformation und -rewriting sowie die Spezifikation von Eigenschaften mittels temporaler Logiken. Die formale Konsistenzprüfung zur Laufzeit basiert auf Transformationsmodellen, welche Verhalten und Struktur auf Basis- sowie auf Metaebene adaptieren. Neben einer Machbarkeitsstudie werden die Ergebnisse in einer realen Anwendung (europäisches Verkehrskontrollsystem; UTCS) auf ihre praktische Relevanz hin überprüft.
Optimierungs- und Selbstverwaltungskonzepte für Data-Warehouse-Systeme
Laufzeit: 15.04.2007 bis 31.12.2010
Data-Warehouse-Systeme werden seit einiger Zeit für Markt- und Finanzanalysen in vielen Bereichen der Wirtschaft eingesetzt. Die Anwendungsgebiete dieser Systeme erweitern sich dabei ständig, und zusätzlich steigen die zu haltenenden Datenmengen (historischer Datenbestand) immer schneller an. Da es sich oft um sehr komplexe und zeitkritische Anwendungen handelt, müssen die Analysen und Berechnungen auf den Daten immer weiter optimiert werden. Dazu allein reicht die stetig steigende Leistung von Rechner- und Serversystemen nicht aus, da die Anwendungen immer neue Anforderungen und komplexer werdende Berechnungen benötigen. Dadurch wird auch klar, daß der zeitliche und finanzielle Aufwand zum Betrieb solcher Systeme immens ist.
Im Rahmen dieses Projekts soll untersucht werden, welche Möglichkeiten existieren, bisherige Ansätze zu erweitern und neue Vorschläge in bestehende System zu integrieren um die Leistung dieser zu steigern. Um dieses Ziel zu erreichen sollen Ansätze aus dem Bereich des Self-Tunings genutzt werden, denn so können die Systeme sich autonom an ständig ändernde Rahmenbedingungen und Anforderungen anpassen. Diese Ansätze sollen durch Erweiterungen wie zum Beispiel die Unterstützung von Bitmap-Indexen verbessert werden. Weiterhin soll Bezug genommen werden auf tiefere Ebenen der Optimierung, wodurch eine physische Optimierung möglich (autonom) und erleichtert werden soll.
Software Product Line Languages and Tools
Laufzeit: 25.11.2006 bis 31.12.2010
This project focuses on research and development of tools and languages for software product line development. The research aims at improving usability, flexibility and complexity of current approaches. This includes tools as FeatureC++, FeatureIDE, and CIDE as well as concepts like Aspect Refinement, Aspectual Mixin Layers, and formalization of language concepts. The research centers around the ideas of feature-oriented programming and explores boundaries toward other development paradigms including design patterns, aspect-oriented programming, generative programming, model-driven architectures, service-oriented architectures and more.
ViERforES - Interoperabilität für digitale Produkte mit eingebetteten Systemen
Laufzeit: 01.09.2008 bis 31.12.2010
Die Funktionalität neuer Produkte wird durch einen zunehmenden Anteil von Software in Form von Eingebetteten Systemen erzielt. Im Zusammenwirken mit anderen funktionsbestimmenden Komponenten komplexer technischer Systeme erfordert das neue Techologien zur Beherrschung von höchster Sicherheit und Zuverlässigkeit von Produktentwicklungen. Ziel von VIERforES ist es, durch Einsatz von Virtueller und Erweiterter Realität auch nicht physikalische Produkteigenschaften sichtbar zu machen und so adäquate Methoden und Werkzeuge für das Engineering zu entwickeln.
Die Bereitstellung von Lösungen zur gesamtheitlichen Betrachtung komplexer Produkte oder Anlagen in der Entwicklung, dem Tests und während des Betriebes stellt die Informationstechnik vor große Herausforderungen. Unter anderem müssen unabhängig voneinander modellierte Komponenten in einen Gesamtkontext eingebracht werden, wofür die virtuelle oder erweiterte Realität als integrierter Arbeitsbereich nutzbar gemacht werden kann. Ziel des Teilprojektes "Interoperabilität für digitale Produkte mit eingebetteten Systemen" ist daher die Sicherstellung der Interoperabilität der beteiligten heterogenen Systeme und der von diesen verwalteten Modelle. Dies reicht von der syntaktischen (verschiedene Schnittstellen, Datenmodelle, etc.) über die semantische (Bedeutung und Zusammenhang von unterschiedlich modellierten Daten und Funktionalitäten) bis zur pragmatischen Ebene (Verwendung durch Nutzer, Unterstützung von Arbeitsabläufen, Kooperation).
ViERforES - Koordination
Laufzeit: 01.09.2008 bis 31.12.2010
Aufgabe des Teilprojektes ist die Koordinierung der Zusammenarbeit der Projektleiter der Teilprojekte der Anwendungsbereiche und Querschnittthemen des Projektes VIERforES sowie Präsentation, Außendarstellung.
ViERforES - Sichere Datenhaltung in eingebetteten Systemen
Laufzeit: 01.09.2008 bis 31.12.2010
Die Funktionalität neuer Produkte wird durch einen zunehmenden Anteil von Software in Form von Eingebetteten Systemen erzielt. Im Zusammenwirken mit anderen funktionsbestimmenden Komponenten komplexer technischer Systeme erfordert das neue Techologien zur Beherrschung von höchster Sicherheit und Zuverlässigkeit von Produktentwicklungen. Ziel von VIERforES ist es, durch Einsatz von Virtueller und Erweiterter Realität auch nicht physikalische Produkteigenschaften sichtbar zu machen und so adäquate Methoden und Werkzeuge für das Engineering zu entwickeln.
Ziel des Teilprojektes "Sichere Datenhaltung in eingebetteten Systemen" ist es, den Stand der Technik bezüglich Safety und Security sowie ihrer Wechselwirkungen unter dem speziellen Fokus auf eingebettete Systeme aufzuzeigen und in der Kooperation mit Kaiserslautern auf die Anwendungsgebiete abzubilden. Bedrohungen für dieses spezifische Umfeld sollen analysiert und modelliert (z.B. unter Einbeziehung bestehender Schemata wie der CERT-Taxonomie) werden und dem Anwender über Virtual Engineering greifbar gemacht werden. Ein weiterer Schwerpunkt ist die Entwicklung einer Produktlinie für sichere Datenhaltung in eingebetteten Systemen und Konzepte für die Verfügbarkeit dieser Produktlinie im Virtual Engineering.
Lastbalancierte Indexstrukturen zur Unterstützung des Self-Tuning in DBMS
Laufzeit: 03.03.2007 bis 31.03.2010
Indexstrukturen werden seit langer Zeit in Datenbankmanagementsystemen eingesetzt, um bei grösen Datenmengen den Zugriff auf Datenobjekte zu beschleunigen. Dabei werden Datenräume in der Regel gleichmäßig indexiert, um möglichst konstante Zugriffskosten zu erzielen. Weiterhin sind die Indexstrukturen dafür optimiert, den gesamten Datenbereich zu beschreiben, wodurch in der Regel große Indexinstanzen entstehen. Im Rahmen dieses Projektes wird untersucht, welche Möglichkeiten existieren, um Indexe im Rahmen eines Self-Tuning besser an aktuelle Anforderungen eines Systems anzupassen. Im Gegensatz zur parallel betriebenen Forschungen an Indexkonfigurationen sollen hierbei die Indexe selber adaptiv sein, indem sie sich an das Lastverhalten in Form von Zugriffen auf bestimmte Datenbereiche selbständig anpassen. Resultierende Indexstrukturen müssen dementsprechend nicht mehr höhenbalanciert sein und können gegebenenfalls dünnbesetzt sein oder den Datenraum nur partiell überdecken.
Methoden und Werkzeuge zum Bau feingranular konfigurierbarer Datenbankfamilien für Anwendungen im Bereich eingebetteter Systeme
Laufzeit: 01.04.2006 bis 30.09.2008
Die Einsatzbereiche von Rechensystemen werden immer vielfältiger. Mikroprozessoren finden sich heute bereits in jedem Automobil, jedem Flugzeug und selbst in Küchengeräten undWaschmaschinen. Aktuelle Entwicklungen wie "Ambient Intelligence", "Ubiquitous Computing" und "Pervasive Computing" werden diesen Trend noch verstärken.Häufig benötigen auch derartige "eingebettete" Rechensysteme Infrastruktursoftware zur Datenhaltung, die vieles mit klassischen Datenhaltungssysteme (DBMS), die üblicherweise im Großrechner und PC Bereich eingesetzt werden, gemein hat. Allerdings verhindern dieHeterogenität der Hardware, die teilweise extremen Ressourcenbeschränkungen (die Mehrzahl der eingebetteten Rechensysteme arbeitet noch immer mit 8-Bit Mikroprozessortechnik) unddie unterschiedlichen Anforderungen der häufig sehr speziellen Anwendungsprogramme den Einsatz von Standardlösungen. Die Entwickler reagieren auf dieses Problem in der Regel mit Eigenentwicklungen, so dass das Rad sprichwörtlich immer wieder neu erfunden wird.Das Ziel dieses Vorhabens ist es, Methoden und Werkzeuge zu evaluieren und zu verfeinern, die für den Bau anwendungsspezifisch konfigurierbarer DBMS zielführend sind. Derartige Techniken könnten durch Wiederverwendung Entwicklungskosten reduzieren, ohne auf der anderen Seite die Hardwarekosten zu erhöhen. Neben der Konstruktion von DBMS Familien soll dabei auch die Analyse von Anwendungen betrachtet werden, um so den Aufwand für die Konfigurierung derpassenden DBMS Variante durch Automatisierung zu minimieren.Die aus dem Projekt gewonnenen Erkenntnisse sind über die Domäne der eingebetteten DBMS hinaus von Wert, da allgemeine Methoden und Werkzeuge zur Erstellung von Software-Produktlinien entwickelt und bewertet werden. Durch die Anforderungen an Skalierbarkeit und Effizienz sowie die Komplexität und semantische Ausdruckskraftverwendeter Anfragesprachen wie SQL sind eingebettete DBMS zu diesem Zweck ein ideales Experimentierfeld.Das Vorhaben wird in enger Zusammenarbeit zwischen Forschern aus dem Datenbankumfeld und dem Bereich der eingebetteten Systemsoftware durchgeführt. Bestehende Erfahrungen mit Programmfamilien und passenden Implementierungstechniken, die im Bereich eingebetteter Betriebssysteme gesammelt wurden, werden dabei mit Expertenwissen über die Datenbankdomäne vereint.
Reflective and Adaptive Middleware for Software Evolution of Non-Stopping Information Systems
Laufzeit: 15.10.2005 bis 31.03.2008
Auch moderne Informationssysteme sind noch weit davon entfernt in unserer schnell-lebigen wettbewerbsorientierten Welt flexibel zu agieren bzw. zu reagieren. Neben der einfachen und flexiblen Inbetriebnahme bzw. Anpassung von Informations- und Geschäftsdiensten muss ein Höchstmaß an Qualität und Sicherheit gewährleistet werden. Um dieses zu erreichen, fokussiert der vorliegende Antrag auf die rigorose Entwicklung von selbstadaptiven und kontext-sensitiven verteilten Informationssystemen, welche sich dynamisch zur Laufzeit weiterentwickeln. Unser Ansatz sieht die Interaktion mit der Umwelt im Mittelpunkt. Als erster Schritt, wird eine reflexive Middleware entwickelt. Die Basisebene dieser Middleware wird UML-basiert entworfen und implementiert. Die darüberliegende Metaebene steuert die Evolution des Verhaltens und der Struktur mittels eines Script-basierten Ansatzes. Weiterhin enthält sie eine Instanz, welche die Konsistenz während der Adaption überwacht. Diese reflexive Middlewarewird dann um eine domänen-spezifische Architektur erweitert. Diese ermöglicht dynamische Rekonfiguration auf Basis von Graphtransformation und -rewriting sowie die Spezifikation von Eigenschaften mittels temporaler Logiken. Die formale Konsistenzprüfung zur Laufzeit basiert auf Transformationsmodellen, welche Verhalten und Struktur auf Basis- sowie auf Metaebene adaptieren. Neben einer Machbarkeitsstudie werden die Ergebnisse in einer realen Anwendung (europäisches Verkehrskontrollsystem; UTCS) auf ihre praktische Relevanz hin überprüft.
Virtuelle Entwicklungs- und Logistikplattform (TP 13 Automotive)
Laufzeit: 01.10.2005 bis 30.09.2007
Ein ganzheitliches Virtual Engineering von der Entwicklung bis hin zur Fertigung von Produkten erfordert die Verbindung unterschiedlicher ingenieurwissenschaftlicher Disziplinen bezogen auf die Betrachtungsebenen und Detaillierungsgrade in ihren Modellwelten. Als vorteilhaft hat sich in diesem Zusammenhang die Verwendung von Modellkomponenten erwiesen, die sich an dem Modul- und Schnittstellenkonzept der Produkte orientieren. Die hierfür benötigten ingenieurwissenschaftlichen Grundlagen und Modellierungskonzepte sollen im Rahmen dieses interdisziplinären Projektes erarbeitet und anhand einer prototypischen Softwareplattform zur Unterstützung der Produktentstehungsprozesse erprobt werden. Damit soll ein Beitrag zur Weiterentwicklung virtueller Technologien bzw. zur Verbesserung von deren Anwendbarkeit bei Engineering- und Planungsprozessen geleistet werden. Projektpartner sind Prof. R. Kasper vom Institut für Mobile Systeme der OvGU Magdeburg, Prof. U. Gabbert vom Institut für Mechanik der OvGU Magdeburg sowie Prof. M. Schenk vom Fraunhofer-Institut für Fabrikbetrieb und -automatisierung (IFF) Magdeburg.
Lastbalancierte Indexstrukturen zur Unterstützung des Self-Tuning in DBMS
Laufzeit: 01.10.2004 bis 02.03.2007
Indexstrukturen werden seit langer Zeit in Datenbankmanagementsystemen eingesetzt, um bei grösen Datenmengen den Zugriff auf Datenobjekte zu beschleunigen. Dabei werden Datenräume in der Regel gleichmäßig indexiert, um möglichst konstante Zugriffskosten zu erzielen. Weiterhin sind die Indexstrukturen dafür optimiert, den gesamten Datenbereich zu beschreiben, wodurch in der Regel große Indexinstanzen entstehen. Im Rahmen dieses Projektes wird untersucht, welche Möglichkeiten existieren, um Indexe im Rahmen eines Self-Tuning besser an aktuelle Anforderungen eines Systems anzupassen. Im Gegensatz zur parallel betriebenen Forschungen an Indexkonfigurationen sollen hierbei die Indexe selber adaptiv sein, indem sie sich an das Lastverhalten in Form von Zugriffen auf bestimmte Datenbereiche selbständig anpassen. Resultierende Indexstrukturen müssen dementsprechend nicht mehr höhenbalanciert sein und können gegebenenfalls dünnbesetzt sein oder den Datenraum nur partiell überdecken.
Werkzeugunterstützung für die Entwicklung von Produktlinien
Laufzeit: 01.10.2004 bis 31.08.2006
Produktlinientechnologien bzw. Domain Engineering stellen wichtige Methoden zur Erstellung von wiederverwendbarer, konfigurierbarer und beherrschbarer Software dar. Ziel des Projektes ist die durchgehende Unterstützung des Produktlinien bzw. Domain Engineering Prozesses. Im Moment gibt es eine Vielzahl von Methoden und Werkzeugen zur Unterstützung der einzelnen Phasen des Domain Engineering (Analyse, Entwurf, Implementierung, Konfigurierung). Allerdings besteht zwischen diesen oftmals keinerlei Zusammenhang. Dadurch können nicht alle Informationen einer Phase in eine folgende übernommen werden und gehen somit verloren. Diese Informationen fehlen bei späteren Erweiterungen, Anpassungen und Wartungsarbeiten. Deshalb m"ussen viele einmal spezifizierte Eigenschaften der zu erstellenden Software mehrmals neu eingegeben bzw. implementiert oder spezifiziert werden. Des Weiteren wird in diesem Projekt FeatureC++, eine merkmalsorientierte Erweiterung zu C++, entwickelt. Die Idee auch für die Anwendungsentwicklung mit C++ eine Sprachunterstützung anzubieten (Hierher nur Java mit AHEAD). Weiterhin soll damit gezeigt werden, das die Entwicklungsumgebung sowie der Entwicklungsprozess unabhängig von einer Sprache (AHEAD – Java, FeatureC++ – C++) oder speziellen Werkzeugen ist. Der Prozess und die Werkzeuge folgen lediglich dem Paradigma der Merkmalsorientierung.
Hochkonfigierbares Datenmanagement
Laufzeit: 01.10.2002 bis 02.03.2006
Die Einsatzbereiche von Rechensystemen werden immer vielfältiger. Mikroprozessoren finden sich heute bereits in jedem Automobil, jedem Flugzeug und selbst in Waschmaschinen. Aktuelle Entwicklungen wie "Ubiquitous Computing" und "Pervasive Computing" werden diesen Trend noch verstärken. Häufig benötigen auch derartige "eingebettete" Rechensysteme Infrastruktursoftware zur Datenhaltung, die vieles mit klassischer Datenhaltung in DBMS gemein haben. Allerdings verhindern die Heterogenität der Hardware, die teilweise extremen Ressourcenbeschränkungen und die unterschiedlichen Anforderungen der häufig sehr speziellen Anwendungsprogramme den Einsatz von Standardlösungen. Um zu verhindern, dass Entwickler darauf mit Eigenentwicklungen reagieren bedarf es spezieller anpassbarer DBMS für die Anwendungsdomäne der eingebetteten Systeme. Das Ziel dieses Vorhabens ist es, Methoden und Werkzeuge zu evaluieren und zu verfeinern, die für den Bau anwendungsspezifisch konfigurierbarer DBMS zielführend sind. Dabei soll neben der Konstruktion der DBMS Familie auch die Analyse von Anwendungen betrachtet werden, um so den Aufwand f"ur die Konfigurierung der passenden DBMS Variante durch Automatisierung zu minimieren.
Relevance-Feedback
Laufzeit: 01.03.2002 bis 01.03.2006
Bei der Suche in Bilddatenbanken ohne textuelle Annotationen ist man von automatisch extrahierten Metadaten abhängig. Beim Relevance-Feedback erfolgt die Suche interaktiv auf den extrahierten Daten. Bei den extrahierten Daten handelt es sich um Merkmalen wie Farbe und Form. Diese so genannten low-level-Merkmale können ein gesuchtes Bild nur vage beschrieben. Daher entspricht die Ergebnismenge einer Anfrage auf diesem Datenraum in der Regel nicht genau den Vorstellungen des Nutzers.Durch mehrere iterative Schritte während eines Anfrageprozesses kann die menschliche Beurteilung mit in die Anfrageausführung einbezogen werden. Bei einer unbefriedigenden Ergebnismenge gibt es mehrere Verfahren, bei denen durch iterative Anfrageformulierung eine Verbesserung der Ergebnismenge erreicht werden kann. Ein Beispiel wäre die Bewertung der Ergebnismenge durch den Nutzer. Die bewertete Anfrage wird als neue Anfrage an das System geschickt. Eine benutzerorientierte Unterstüzung bei der Iteration ist durch eine geeignete Präsentation der Ergebnismenge möglich.
Ähnlichkeitsbasierte Operationen für die Integration strukturierter Daten
Laufzeit: 01.10.2000 bis 02.08.2005
Die Behandlung von Diskrepanzen in Daten ist immer noch eine große Herausforderung und zum Beispiel relevant zur Beseitigung von Duplikaten aus semantisch überlappenden Datenquellen als auch zur Verbindung komplementärer Daten aus verschiedenen Quellen. Entsprechende Operationen können meist nicht nur auf Wertegleichheit basieren, da nur in wenigen Fällen über Systemgrenzen hinweg gültige Identifikatoren existieren.Die Verwendung weiterer Attributwerte ist problematisch, da fehlerhafte Daten und unterschiedliche Darstellungsweisen ein häufiges Problem in diesem Kontext sind. Deshalb müssen solche Operation auf der Ähnlichkeit von Datenobjekten und -werten basieren.Dieser Probleme wird sich in dem Promotionsprojekt von Herr Eike Schallehn angenommen, indem ähnlichkeitsbasierte Operationen entsprechend einem leichtgewichtigen, generischen Rahmen bereitgestellt werden. Die ähnlichkeitsbasierte Selektion, der Verbund und die Gruppierung werden bezüglich ihrer allgemeinen Semantik und besonderer Aspekte der zugrunde liegenden Ähnlichkeitsrelationen diskutiert. Entsprechende Algorithmen für die Datenbearbeitung werden für materialisierte und virtuelle Datenintegrationsszenarien beschrieben. Implementierungen werden vorgestellt und bezüglich der Anwendbarkeit und Effizienz der vorgestellten Ansätze evaluiert.
Optimierung von Ähnlichkeitsanfragen in Multimedia-Datenbanksystemen
Laufzeit: 01.01.2003 bis 01.08.2005
Für die Suche in Multimedia-Datenbanksystemen müssen neben exakten Ergebnissen auch solche einbezogen werden, die der gewünschten Information möglichst nahe kommen, d.h. ähnlich sind. Eine Anfrage könnte etwa sein, in einer Bilddatenbank die Bilder zu finden, die möglichst ähnlich zu einem bestimmten Vorgabebild sind. Die "Ähnlichkeit" wird jedoch von verschiedenen Faktoren, wie der subjektiven Einschätzung des Nutzers und der Gewichtung von Teilanfragen beeinflusst. Da solche Faktoren allgemein nicht durch ein System vorhersagbar sind, ist es notwendig, sie in die Anfragesprache des Systems zu integrieren. Dabei eignet sich zur Anfrageformulierung eine kalkülbasierte QBE-Sprache aufgrund des deklarativen Charakters für den Anwender. Für die Anfrageverarbeitung durch den Computer hingegegen eignet sich eine algebrabasierte Sprache besser.Die aus deklarativen Nutzeranfragen erzeugten Algebraausdrücke stellen im Allgemeinen nicht die bestmögliche Berechnungsvorschrift dar, so dass eine Optimierung sinnvoll bzw. notwendig ist. Eine besondere Berücksichtigung bei der Optimierung verlangt dabei die Behandlung der in die Sprache eingebetteten Ähnlichkeitswerte.
Suche in Multimedia-Datenbanken
Laufzeit: 02.03.2005 bis 01.08.2005
Das langfristige Ziel ist die Erforschung der Nutzung von Datenbankkonzepten zur Verwaltung von Multimedia-Daten. Der Schwerpunkt liegt auf Methoden und Werkzeugen zur Suche nach Multimedia-Daten. Wichtige Forschungsergebnisse sollen dabei anhand von Prototypen validiert und demonstriert werden.Die Suche nach Multimedia-Daten erfordert die Spezifikation von Anfragen, welche durch den Forschungsschwerpunkt "Gewichten von Anfragen" abgedeckt wird. Dazu wurde die Anfragesprache WS-QBE entwickelt, welche eine QBE-ähnliche Anfragespezifikation von Ähnlichkeitsanfragen erlaubt. WS-QBE-Anfragen werden über eine Kalkülsprache in eine Ähnlichkeitsalgebra überführt, in der eine Optimierung und anschließend die Ergebnisberechnung ausgeführt wird. Zum effizienten Finden von Ergebnissen sind hochdimensionale Indexstrukturen notwendig. Oft kann ein Anfrageergebnis nur mittels mehrerer Anfrage-Iterationen gefunden werden. Dazu werden Konzepte des Relevance Feedbacks verwendet.
Parallel SQL Based Frequent Pattern Mining
Laufzeit: 01.01.2002 bis 01.05.2005
Data mining auf gorßen relationalen Datenbanken hat an popularität gewonnen und seine Besonderheiten sind wohl bekannt.Die Perfomance von SQL gestütztes Data Mining fällt bekannterweise hinter spezialisierten Implementationen zurück.
Indexunterstützung für Anfrageoperationen in Mediatorsystemen
Laufzeit: 01.04.2003 bis 31.03.2005
Viele Benutzer und Applikationen benötigen die Integration von semi-strukturierten Daten aus autonomen, heterogenenen Web-Datenquellen. In den letzten Jahren entstanden Mediator-Systeme, die Domain-Knowledge in Form von Ontologien oder Vokabularen benutzen, um das Problem der strukturellen Heterogenität zu lösen. Allerdings haben viele Anwender nicht das notwendige Wissen über Daten und deren Struktur sowie über die Anfragesprache, um diese Daten sinnvoll zu nutzen. Somit ist es notwendig einfach zu benutzende Anfrageschnittstellen, d.h. Keyword-Suche und Browsing, bereitzustellen.Das Ziel des Projektes ist eine indexbasierte Realisierung von Keyword-Suchen in konzeptbasierten Mediatorsystemen. Um globale Anfragen effizient auszuführen, wird ein Index auf der globalen Ebene aus Anfrageergebnissen aufgebaut und aktuell gehalten. Zusätzlich sollen neben Stichwortanfragen auch Stringähnlichkeitsoperationen unterstützt werden.
Selbstverwaltung von Indexkonfigurationen in DBMS
Laufzeit: 01.04.2003 bis 31.03.2005
Ein Hauptmittel zum Tuning von Datenbanken ist das Anlegen von Indexen zur Beschleunigung der Ausführung einer Vielzahl von Operationen. Jedoch ist das Anlegen der geeigneten Indexe eine schwierige Aufgabe, die genaues Wissen über die Nutzung der Daten und die Arbeitsweise des jeweiligen Datenbankmanagementsystems voraussetzt. Zur Unterstützung dieser Aufgabe wurden in den letzten Jahren von den DBMS-Herstellern Werkzeuge entwickelt, die zum Beispiel typische Anfragen oder Anfrage-Logs analysieren und eine statische Empfehlung für eine Indexkonfiguration ableiten.In der Praxis existieren Datenbanken aber in einem sehr dynamischen Umfeld, wo sich neben typischen Nutzungsprofilen (Anfragen) auch die Daten selber und ebenfalls zur Verfügung stehenden Systemressourcen permanent ändern. Im Rahmen dieses Projektes wird untersucht, wie basierend auf einer kontinuierlichen Analyse des Systems und seiner Nutzung automatisch die aktuelle Indexkonfiguration an sich ändernde Anforderungen angepasst werden kann.
Konsistenzsicherung bei serverseitigen Änderungen für Datenbestände mobiler Clients
Laufzeit: 01.11.2004 bis 01.03.2005
Informationssystemen mit mobilen Klienten müssen die Restriktionen bei Hardware (leichtgewichtige Endgeräte), Energieversorgung (meist Akkumulatoren) und Netzwerknutzung (Kosten, Geschwindigkeiten, Verfügbarkeit) kompensieren. Oftmals kommen hierbei Techniken zum Einsatz, welche Daten redundant auf dem Mobilgerät speichern. Das Spektrum reicht hierbei von Caching über Hoarding bis hin zur Replikation. Sie unterscheiden sich im Wesentlichen durch das Vorgehen, wie der Nutzer Einfluss auf die zwischenzuspeichernden Daten nehmen kann. Beim Caching, insbesondere beim semantischen Caching, werden Anfrageergebnisse gepuffert und bei neuen Anfragen gegebenenfalls wiederverwendet. Hoarding-Techniken versuchen vorauszuahnen, welche Daten dem Nutzer eines Mobilgerätes später von Nutzen sein können. Replikationsverfahren erlauben ein gezieltes Anfordern von Daten. Bei allen drei Ansätzen wird jedoch eine künstliche Redundanz der Serverdaten erzeugt, die bei Änderungen zu Inkonsistenzen führt. Daher müssen sowohl Klient, als auch Server konsistenzsichernde Maßnahmen unterstützen. Im Rahmen dieses Projektes wird daher untersucht, wie ein solcher Abgleich, abhängig vom gewählten Zwischenspeicherungsansatz erfolgen kann.
Suche in Multimedia-Datenbanken
Laufzeit: 02.03.2000 bis 01.03.2005
Das langfristige Ziel ist die Erforschung der Nutzung von Datenbankkonzepten zur Verwaltung von Multimedia-Daten. Der Schwerpunkt liegt auf Methoden und Werkzeugen zur Suche nach Multimedia-Daten. Wichtige Forschungsergebnisse sollen dabei anhand von Prototypen validiert und demonstriert werden.Die Suche nach Multimedia-Daten erfordert die Spezifikation von Anfragen, welche durch den Forschungsschwerpunkt "Gewichten von Anfragen" abgedeckt wird. Dazu wurde die Anfragesprache WS-QBE entwickelt, welche eine QBE-ähnliche Anfragespezifikation von Ähnlichkeitsanfragen erlaubt. WS-QBE-Anfragen werden über eine Kalkülsprache in eine Ähnlichkeitsalgebra überführt, in der eine Optimierung und anschließend die Ergebnisberechnung ausgeführt wird. Zum effizienten Finden von Ergebnissen sind hochdimensionale Indexstrukturen notwendig. Oft kann ein Anfrageergebnis nur mittels mehrerer Anfrage-Iterationen gefunden werden. Dazu werden Konzepte des Relevance Feedbacks verwendet.
Softwaretechnische Methoden zur Entwicklung adaptiver verteilter Systeme
Laufzeit: 01.12.2002 bis 31.12.2004
Im Kontext der globalen Vernetzung gewinnen verteilte Systeme immer mehr an Bedeutung. Sie durchdringen immer mehr Bereiche des alltäglichen Lebens undmüssen immer flexibler auf äußere Einflüsse reagieren bzw. hinsichtlich dieser angepasst werden. Ziel dieses Promotionsvorhabens ist der wachsenden Komplexität dieser Systeme unter Beachtung des immer breiter werdenden Spektrums von potentiellen Anwendungen und Zielplattformen mittels moderner softwaretechnischer Methoden zu begegnen. Hierbei werden vor allem Aspektorientierte, Generative sowie Merkmalsorientierte Programmierung hinsichtlich Anpassbarkeit, Widerverwendbarkeit und Erweiterbarkeit von verteilten Systemen, ohne die Verständlichkeit und Wartbarkeit einzuschränken, untersucht. In diesem Rahmen wurden und werden außerdem neue Methoden wie konfigurierbares Binden, die kombinierte Anwendung der genannten Sprachparadigmen oder eine visuelle Werkzeugunterstützung entwickelt. Neben dieser statischen Sicht liegt der Fokus außerdem auf der dynamischen Anpassung von verteilten Systemen zur Laufzeit. In diesem Zusammenhang werden auf softwaretechnischer Ebene reflexive Architekturen und dynamisches Aspektweben untersucht. Auf konzeptioneller Ebene wird ein Zusammenhang zwischen Komplexitätsforschung, Kybernetik und selbst-organisierenden adaptiven dezentral-verteilten Systemen hergestellt.
Adaptive Replikation von Daten in heterogenen mobilen Kommunikationsnetzen
Laufzeit: 01.11.2000 bis 31.10.2004
Moderne Kommunikationsnetze mit mobilem, drahtlosem Zugang eröffnen eine Vielzahl neuer Anwendungsgebiete. Die Mobilität der Endgeräte sowie die Ausdehnung der Netzwerke erfordern eine verteilte und redundante Verwaltung sowohl der Managementdaten als auch der eigentlichen Nutzdaten, um einen reibungslosen Betrieb sowie einen effizienten und kostengünstigen Zugriff zu gewährleisten. Daraus resultiert jedoch gleichzeitig auch die Notwendigkeit einer konsistenten Aktualisierung der einzelnen Kopien der Daten. Erschwert wird dies gleichzeitig durch die Heterogenität der Netze und der darauf aufbauenden Systemdienste, die durch die Vielfalt von Technologien und Betreibern bedingt ist. Gegenstand dieses Projektes sind daher Problemstellungen der Datenhaltung in heterogenen, mobilen Netzen. Ausgehend von der Analyse konkreter Anwendungsszenarien und sich daraus ergebender Möglichkeiten werden Replikationstechniken vor allem hinsichtlich der Anpassbarkeit (Adaptivität) an veränderte Rahmenbedingungen untersucht, wie Änderungen der Netztopologie, der Verfügbarkeit einzelner Knoten oder Netzsegmente sowie Veränderungen des Verhaltens bei der Datennutzung.
Integration von Techniken der Softwarespezifikation für ingenieurwissenschaftliche Anwendungen
Laufzeit: 01.01.1999 bis 31.12.2003
Die Ablaufsteuerung vieler ingenieurwissenschaftlicher Anwendungen kann nur unvollständig durch Software realisiert werden. Äußere Einflüsse und menschliche Interaktionen ("offene Systeme") verhindern dies. Weiterhin müssen die spezifizierten Abläufe flexibel an neue Anforderungen und Rahmenbedingungen anpaßbar sein. In Abhängigkeit von der Flexibilität der beschriebenen Prozesse müssen Ablaufbeschreibungen häufig im laufenden Betrieb angepaßt werden. Daraus ergeben sich neue Anforderungen an Softwarespezifikationen, die von klassischen Methoden der Informatik nur unvollständig abgedeckt werden. Zielstellung ist die Erstellung einer Spezifikationssprache und -methode für ingenieurwissenschaftliche Anwendungen mit Eigenschaften wie der Verwendung einer verbreiteten Notationen, der Zuordnung von Abläufen zu Objekten, einer hierarchischn Verhaltensverfeinerung, hoher Adaptierbarkeit und Flexibilität, einer guten Analysierbarkeit sowie der Generierbarkeit operationaler Abläufe. Die Spezifikationsmethodik soll anhand der Abläufe in einer konkreten Materialflußanlage mit Hilfe von Testfällen überprüft werden. Dabei soll insbesondere die Adaptierbarkeit von Ablaufbeschreibungen im Vordergrund stehen.
MuSofT - Multimedia in der Software Technik
Laufzeit: 01.03.2001 bis 31.12.2003
Die Lehre in der Softwaretechnik soll im Rahmen von MuSofT - Multimedia in der SoftwareTechnik durch den Einsatz neuer Medien unterstützt werden. Die Softwaretechnik zählt in den Diplomstudiengängen für Informatik und Ingenieurinformatik an Fachhochschulen und Universitäten zu den Standardbestandteilen des Curriculums, sie wird in den Studiengängen der Informatik für das Lehramt in der Sekundarstufe II gelehrt und gehört in ingenieurwissenschaftlichen Studiengängen wie Elektro- und Informationstechnik sowie Energietechnik oder Maschinenbau/Logistik zunehmend zur Grundlagenausbildung. Das Projekt MuSofT hat sich zum Ziel gesetzt, die Lehre in diesem anwendungsorientierten Zweig der Informatik durch ein multimediales Angebot nachhaltig zu unterstützen, um auch in Veranstaltungen mit großen und sehr großen Studierendenzahlen die gewohnte und notwendige Qualität der Lehre aufrecht erhalten zu können.
Im Rahmen des Teilprojektes 1.2 wird eine Lerneinheit zum Thema Entwurf von Informationssystemen gestaltet. Dabei wird insbesondere auf den Bereich der Datenbanksysteme fokussiert, die einen wichtigen Bestandteil in modernen Softwaresystemen darstellen. In den Vorlesungen werden neben der Datenbanktheorie auch praxisnahe Kenntnisse zum Entwurf von Datenbanken vermittelt. Für die verschiedenen Phasen des Datenbankentwurfs werden Lernmodule entwickelt, die sowohl die Unterstützung von Präsenzveranstaltungen wie Vorlesungen und Übungen, als auch des Selbststudiums ermöglichen.
Internet-Datenbank für kriegsbedingt verbrachte Kulturgüter
Laufzeit: 01.10.1999 bis 01.10.2003
Ziel des Projektes ist die Konzeption und Realisierung einer Datenbank zur Verwaltung von kriegsbedingt verbrachten Kulturgütern (Beutekunst). In diesem Rahmen ist eine WWW-Schnittstelle zu entwickeln, die eine Recherche anhand verschiedener Kriterien ermöglicht und Aspekte der Abrechnung von Anfragen berücksichtigt.
Föderations- und Integrationsdienste für die Informationsfusion
Laufzeit: 01.01.2000 bis 31.03.2003
Im Rahmen der Forschergruppe "Workbench für die Informationsfusion" beschäftigt sich das Projekt mit Diensten zur Integration von Daten und Methodenbausteinen. Zur Informationsfusion, d.h. zur Gewinnung von semantisch höherwertigen Informationen aus existierenden heterogenen Datenbeständen, werden sowohl Mechanismen zum transparenten und effizienten Zugriff auf diese Datenbestände als auch Methoden zur Integration, Fusion und Analyse der Daten benötigt.Im Rahmen des beantragten Projektes werden daher essentielle Aspekte einer Datenintegrationskomponente untersucht. Für die Informationsfusion müssen heterogen beschriebene Datenbestände integriert und in eine für Fusionsmethoden geeignete Darstellung transformiert werden. Hier soll eine Transformationsbeschreibung entwickelt werden, aus der möglichst automatisch Komponenten zum Datenzugriff generiert werden können. Da es sich oft um sehr grosse Datenbestände handelt, muß die Kombination von Datenbankzugriffen und Fusionsmethoden gemeinsam optimiert werden, um ein akzeptables Zeitverhalten zu erreichen. Hier muß ein gmeinsames Verarbeitungsmodell entwickelt und die klassische Datenbankoptimierungan dieses Modell angepaßt werden. Die Integration von temporären Zugriffsstrukturen und replizierten Daten ist ein weiterer Schwerpunkt des Projektes.
Föderierungsdienst für heterogene Dokumentenquellen
Laufzeit: 01.09.1999 bis 31.12.2001
Ziel dieses Pojektes ist der Entwurf und die Implementierung eines Föderierungsdienstes zur Literatur- und Informationsrecherche in heterogenen Informationssystemen. Eine derartige Komponente ist notwendig, da im Anwendungsszenario des bundesweiten Projektes Global-Info heterogene und autonome Informationssysteme zusammengefaßt werden müssen, die in der Regel verteilt im Netz agieren und deren lokale Eigenschaften nicht beeinflußbar sind. Der Föderierungsdienst schließt dabei auch die Verwaltung von Metadaten der Föderation in einer Datenbank mit ein. Wesentliche Teilprobleme sind weiterhin Methoden zur Extraktion von Metadaten aus teilweise strukturierten Dokumenten und zur Erkennung identischer Informationsobjekte (Dokumente, Autoreninformationen, etc.).
FIREworks: Feature Integration in Requirements Engineering
Laufzeit: 01.05.1997 bis 30.04.2000
Die von der EU im Rahmen des ESPRIT III Programms geförderte Working Group FIREworks ({F}eature {I}ntegration in {R}equirements {E}ngineering) hat sich als Aufgabe gesetzt, das Problem des Hinzufügens sogenannter Features (zusätzlicher Leistungsmerkmale) zu Spezifikationen von komplexen Softwaresystemen zu untersuchen. Dieses Problem tritt z.B. f"ur Telekommunikationssysteme regelmäßig auf, wenn eine bestehende Spezifikation des Systems um weitere, neue Dienste ergänzt werden soll. Bei diesem in der Praxis immer wieder auftretenden Anpassen eines bestehenden Systems an neue Anforderungen tritt oft auch ein weiteres Problem, das sogenannte Feature Interaction Problem, auf. Verschiedene Features, die jeweils einzeln einem bestehenden System hinzugefügt werden können, führen, wenn sie gemeinsam hinzugefügt werden, zu Fehlfunktionen des Systems, weil sie sich gegenseitig beeinträchtigen. Angestrebt wird eine Erkennung solcher unerwünschten Interaktionen auf der Basis der System- und Feature-Spezifikationen.
Werkzeuge und Komponenten für den effizienten Entwurf und die praxisgerechte Implementierung Föderierter Datenbanksysteme.
Laufzeit: 01.03.1998 bis 28.02.2000
Dieses Forschungsprojekt ist ein Anschlussprojekt an das im Februar 1998 ausgelaufene Landesprojekt zur Föderierung heterogener Datenbanksysteme und lokaler Datenhaltungskomponenten zur systemübergreifenden Konsistenzsicherung, gefördert unter FKZ 1987A/0025 Im Rahmen des Anschlussprojektes ist der konzeptionelle Entwurf und die Implementierung eines komponentenorientierten Föderierten Datenbanksystems geplant. Dabei sind die Aspekte anwendungsspezifische Konfigurierbarkeit und der praxisgerechte Einsatz zentrale Schwerpunkte der Forschungsbemühungen.
Föderierung heterogener Datenbanksysteme und lokaler Datenhaltungskomponenten zur systemübergreifenden Integritätssicherung
Laufzeit: 01.09.1995 bis 28.02.1998
Ziel des Vorhabens ist die Entwicklung einer Basis-Informationsinfrastruktur als Grundlage integrierter und einheitlicher Datenhaltung füralle Phasen der Fabrikplanung. Dazu soll ein föderiertes heterogenes Informationssystem entstehen, das als Rahmensystem zur Integrationaller an der Fabrikplanung beteiligten Software-Werkzeuge einschließlich deren lokaler Datenbestände dient. Damit sollen bislangseparate Werkzeuge, die für Produktentwurf, Produktionsplanung und Fabriksimulation eingesetzt werden oder dafür noch entwickeltwerden, synergetisch zusammengefügt werden. Zentrale Aufgabe eines solchen föderierten Informationssystems ist neben der Bereitstellung einer homogenen Datenbankschnittstelle fürglobale Anwendungen die systemübergreifende Gewährleistung der Datenkonsistenz. Um diese zu gewährleisten, sollen aktiveMechanismen auf einer übergeordneten Ebene realisiert werden, um die Einzelsysteme mit ihren unterschiedlichen Möglichkeiten derIntegritätssicherung zu verbinden. Die Verbindung der Einzelsysteme verlangt die Integration der verschiedenen Datenschemata, welcheoft auf unterschiedlichen Datenmodellen basieren.
- Datenmanagement auf neuer Hardware (CPU, GPU, APU, MIC)
- Integration von Informationssystemen
- Tuning und Self-Tuning von Datenbankmanagementsystemen
- Entity Resolution und Sicherheit in der Cloud
- Feature-orientierte Softwareentwicklung (FOSD)
- Code-Qualität von hochkonfigurierbarer Software
- Migration geklonter Produktvarianten in Software-Produktlinien
- Testen und Konfigurieren von Software-Produktlinien
- Adaptive Informationssysteme
- Digital Engineering
- Data Warehousing
Datenmanagement
- in der Cloud
- auf neuer Hardware (CPU, GPU, …)
Self-Tuning Ansätze
Bereitstellung von Softwaretechniken für Entwickler
- Konfigurierbare Software (Software-Produktlinien, Multi-Produktlinien)
- Wartbarkeit von Software (Refaktorisierung)
1981-1985 | Studium der Informatik mit Nebenfach Mathematik (Diplom-Informatiker), TU Braunschweig |
1985-1988 | Wissenschaftlicher Mitarbeiter am Institut für Programmiersprachen und Informationssysteme, TU Braunschweig |
1988-1988 | Promotion zum Doktor der Naturwissenschaften (Dr. rer.nat), TU Braunschweig |
1988-1989 | Gastwissenschaftler am Wissenschaftliches Zentrum Heidelberg, IBM Deutschland GmbH |
1989-1994 | Hochschulassistent mit Berechtigung zur selbständigen Lehre, TU Braunschweig |
1990-1991 | C3 - Vertretung für das Fach "Datenstrukuten, Informationssysteme", Universität Dortmund |
1993-1993 | Habilitation; Venia Legendi: "Informatik" TU Braunschweig |
1994 | Universitätsprofessur (C4) Praktische Informatik / Datenbanken und Informationssysteme, Otto-von-Guericke-Universität Magdeburg |
1996-1998 | Dekan der Fakultät für Informatik, Universität Magdeburg |
1999-1999 | Ruf an die Universität Hamburg (abgelehnt) |
1999-2002 | Sprecher der DFG Forschergruppe "Workbench für die Informationsfusion", Universität Magdeburg |
2001-2005 | Prorektor für Haushalt und Planung, Universität Magdeburg |
2008-2011 | Koordinator des Universitätsteils des BMBF Verbundprojektes VIERforES, Universität Magdeburg |
2012-2014 | Dekan der Fakultät für Informatik, Universität Magdeburg |
Ehrenamtliche Tätigkeiten, Auszeichnungen und Preise: | |
1998 | Otto-von-Guericke-Forschungspreis |
seit 2001 | Herausgeber des Datenbank-Spektrum Journals |
seit 2004 | gewähltes Mitglied im Fachkollegium "Informatik" der DFG (Wahl 2004, Wiederwahl 2008) |
seit 2004 | Mitglied im Fachkollegium Medizintechnik des DFG |
seit 2008 | Mitglied im Vorstand des GI-Beirats der Universitätsprofessoren |
1998-2007 | Mitglied im Vorstand des Fakultätentages Informatik |