Abschlussarbeiten

Wir freuen uns sehr, dass Sie Ihre Bachelor-/Masterarbeit bei uns am Institut schreiben möchten. Auf dieser Seite finden Sie alle Informationen zu möglichen Themen, dem Anmeldeverfahren sowie allgemeine Hinweise. Wir wünschen Ihnen viel Erfolg!

BACHELORARBEITEN

Die Bachelorarbeit im Bereich Statistik besteht in der Regel aus einer Beschreibung neuer statistischer Verfahren und deren Anwendung auf konkrete Daten.

  • Anmeldung

    Um sicherzustellen, dass alle Studierenden des Bachelorstudiengangs Wirtschaftswissenschaften ein Bachelorarbeitsthema innerhalb der Regelstudienzeit bekommen, werden die Plätze über ein zentrales Bewerbungsverfahren durch das Studiendekanats zugeteilt. Nach Abschluss des Verfahrens wird Ihnen vom Studiendekanat mitgeteilt, an welchem Institut Sie Ihre Bachelorarbeit schreiben können.

  • Themenvergabe

    Für Studierende, die uns über das zentrale Vergabeverfahren zugeteilt wurden, habe wir eine Themenauswahl aus verschiedenen Bereichen zusammengestellt. Die Themen für das SoSe 2020 und WiSe 2020/21 werden innerhalb eines Kick-Off Meetings, welches in der ersten Vorlesungswoche im SoSe 2020 stattfinden wird, vergeben. Sie erhalten diesbezüglich zeitnah weitere Informationen von uns.

    Verfügbarkeit

    Die Themen werden maximal doppelt vergeben. Wenn Sie sich für ein Thema entschieden haben, reservieren wir dieses gerne für Sie. Sobald ein Thema doppelt vergeben wurde, nehmen wir dieses von unserer Webseite, sodass dieses nicht mehr verfügbar ist.

THEMENLISTE

Wir haben eine Auswahl mit 25 Themen aus verschiedenen Bereichen zusammengestellt.

Unter den nachfolgenden Kategorien sind die aktuell verfügbaren Themen aufgeführt, sodass Sie sich bei Ihrer Auswahl an diesen orientieren können. Wenn Sie sich für ein Thema entschieden haben, reservieren wir dieses gerne für Sie. Die Themen werden maximal doppelt vergeben und von unserer Webseite genommen, sobald diese nicht mehr verfügbar sind.

Die Inhaltsbeschreibung sowie die Literaturangaben können Sie weiterhin der oben verlinkten Gesamtübersicht entnehmen.

  • Modelle der Beschreibenden Statistik und Stochastik

    Konzentrationsmessung

    Eine häufige Fragestellung in der Wirtschaft bezieht sich auf die Verteilung von Umsätzen oder Vermögen auf die Merkmalsträger. Anhand des Herfi ndahl-Indexes wird die absolute Konzentration gemessen, um zu prüfen, ob ein hoher Anteil der Merkmalssumme auf eine kleine absolute Zahl an Merkmalsträgern fallt. Damit wird z.B. das Kartellrecht auf einem Markt überprüft. Die relative Konzentration, häufi g gemessen mit dem Gini-Koeffizienten, gibt hingegen an, auf welchen Anteil an Merkmalsträgern ein bestimmter Anteil der Merkmalssumme verteilt ist. Darüber können z.B. Aussagen über Ungleichverteilungen von Einkommen getro ffen werden.

    Einstiegsliteratur:

    • Philipp Sibbertsen und Hartmut Lehne. 2015. Statistik: Einführung für Wirtschafts-und Sozialwissenschaftler. Springer-Verlag (Kap. 4)
    • Jürgen Hedderich und Lothar Sachs. 2016. Angewandte Statistik: Methodensammlung mit R. Springer Spektrum, Berlin, Heidelberg (Kap. 3)

    Preisindizes

    Monatlich gibt das Statistische Bundesamt Daten über die Preisentwicklung in Deutschland aus. Diese Preisentwicklungen basieren auf Preisindizes. Preisindizes berücksichtigen dabei sowohl die tatsächlichen Preise bestimmter Güter als auch das Verbrauchsverhalten der Konsumenten. Zur Abbildung des Kosumverhaltens gibt es verschiedene Möglichkeiten. Hierzu wird ein typischer Warenkorb gebildet, der entweder fur die Basis- oder die Berichtsperiode repräsentativ sein soll. In dieser Arbeit sollen die verschiedenen Preisindizes nach Laspeyres, Paasche und Fisher vorgestellt und ihre Unterschiede und Motivation zur Bildung von Preisindizes sowie ihre Vor- und Nachteile diskutiert werden.

    Einstiegsliteratur:

    • Philipp Sibbertsen und Hartmut Lehne. 2015. Statistik: Einführung fur Wirtschafts-und Sozialwissenschaftler. Springer-Verlag (Kap. 7)

    Modellierung von Extremwerten mit Extremwertverteilungen

    In vielen Anwendungsgebieten spielt die Modellierung extremer Ereignisse eine besondere Rolle. Mithilfe der Extremwerttheorie kann z.B. das Risiko auf Finanzmärkten oder die Wahrscheinlichkeit fur Überflutung eines Deichs abgebildet werden. Eine übliche Herangehensweise ist das Aufteilen des Datensatzes in Blöcke, deren Maxima bestimmten Extremwertverteilungen folgen. Dies sind die Gumbel-, Fréchet- und Weibullverteilung, die in der allgemeinen Extremwertverteilung zusammengefasst werden.

    Einstiegsliteratur:

    • Stuart Coles u. a. 2001. An introduction to statistical modeling of extreme values. Springer (Kap. 3)
    • Rolf-Dieter Reiss und Michael Thomas. 2007. Statistical analysis of extreme values. Springer (Kap. 4)

    Modellierung von Extremwerten mit der Peaks-Over-Threshold-Methode

    Bei einer anderen Herangehensweise zum Modellieren extremer Ereignisse wird ein Grenzwert festgelegt, dessen Überschreitungen betrachtet werden. Nach dem Satz von Pickands können diese Werte bei richtiger Wahl des Grenzwerts als unabhängige Realisationen einer Zufallsvariablen betrachtet werden, die der allgemeinen Pareto-Verteilung folgt. Der Grenzwert wird mit graphischen Entscheidungshilfen bestimmt, sodass anschließend mit der Maximum-Likelihood-Methode die Verteilung angepasst werden kann.

    Einstiegsliteratur:

    • Stuart Coles u. a. 2001. An introduction to statistical modeling of extreme values. Springer (Kap. 4)
    • Rolf-Dieter Reiss und Michael Thomas. 2007. Statistical analysis of extreme values. Springer (Kap. 5)

    Markov-Ketten

    Eine Markov-Kette ist ein stochastischer Prozess, bei dem die möglichen Merkmalsausprägungen als Zustände aufgefasst werden, die der Prozess annehmen kann. Es werden Übergangswahrscheinlichkeiten zwischen diesen Zuständen modelliert, sodass ermittelt werden kann, mit welcher Wahrscheinlichkeit der Prozess zu einem Zeitpunkt in einem bestimmten Zustand ist. Eine besondere Eigenschaft von Markov-Ketten ist die sogenannte Gedächtnislosigkeit, bei der vergangene Zustände keinen Einfluss auf die zukünftige Entwicklung haben. Übliche Anwendungen sind z.B. Modellierung von Geburts- und Sterbeprozessen einer Population, von Aktienkursen, von Ausfallrisiken oder Warteschlangenmodelle.

    Einstiegsliteratur:

    • Karsten Webel und Dominik Wied. 2016. Stochastische Prozesse. Springer (Kap. 4)
    • David Meintrup und Stefan Schäffler. 2006. Stochastik: Theorie und Anwendungen. Springer-Verlag (Kap. 9)

    Anpassungstests an die Normalverteilung

    Die Normalverteilung von Daten ist eine zentrale Annahme vieler statistischer Verfahren, wie beispielsweise des t-Tests oder der linearen Regression. Zum Prüfen der Normalverteilungsannahme dienen Tests, die auf unterschiedlichen Prinzipien basieren: beispielsweise der Chi-Quadrat-Anpassungstest und der Kolmogorov-Smirnov-Test zum Vergleich mit der theoretischen Verteilungsfunktion, der Jarque- Bera-Test, basierend auf Schiefe und Wölbung, und der Shapiro-Wilk-Test zur Analyse der Varianz.

    Einstiegsliteratur:

    • Henry C. Thode. 2011. "Normality tests". International Encyclopedia of Statistical Science: 999-1000
    • Nornadiah Mohd Razali und Yap Bee Wah. 2011. "Power comparisons of shapiro-wilk, kolmogorov-smirnov, lilliefors and anderson-darling tests". Journal of statistical modeling and analytics 2 (1): 21-33
    • Jürgen Hedderich und Lothar Sachs. 2016. Angewandte Statistik: Methodensammlung mit R. Springer Spektrum, Berlin, Heidelberg (Kap. 7)
  • Grenzen der klassischen linearen Regression

    Heteroscedasticity

    In the least squares method it is assumed that the variance of the disturbance terms is constant. However, if the variance of the disturbance varies, the LS estimator is no longer ecient. This can be proven with tests such as White-Test or Godfrey LM Test. Solutions are o ered by heteroscedasticity-resistant standard errors or the weighted LS method. If autocorrelation is also present, HAC (heteroscedasticity and autocorrelation consistent) estimators must be used. (This thesis is supervised in English).

    Introductory Literature:

    • Je ffrey M. Wooldridge. 2013. Introductory econometrics: A modern approach. Nelson Education (Chap. 8 + 12)
    • William H. Greene. 2012. Econometric analysis. Pearson Education (Chap. 9)

    Autocorrelation

    Regression with time series data could cause classical assumptions about the OLS estimator to be violated, rendering it ine ective. Autocorrelation is an example of this. When autocorrelation exists, the errors of a linear regression are time dependent. In this thesis the AR(1) error model should be presented. In addition, a test on autocorrelation should be presented and shown how to estimate linear regression models eciently despite autocorrelation. (This thesis is supervised in English).

    Introductory Literature:

    • Je ffrey M. Wooldridge. 2013. Introductory econometrics: A modern approach. Nelson Education (Chap. 12)

    Specification tests: RESET

    Consider the model speci cation of a linear regression model, where the independent regressors x_i are linearly related to the dependent variable y. This assumption about the functional form of a regression can be tested and these tests should be content of this work. The best-known test is the so-called RESET test. In addition, for example, the Rainbow and the Harvey-Collier Test can be presented. (This thesis is supervised in English).

    Introductory Literature:

    • Walter Krämer und Harald Sonnberger. 1986. The linear regression model under test. Physica-Verlag Heidelberg (Chap. 4)

    Endogeneity: Instrumental Variables

    Consider a linear regression model, where a prerequisite for the consistency of the OLS estimator is that the independent variable x and the error term e are uncorrelated. If this assumption is violated, there is so-called endogeneity. One consequence is that the OLS estimator has a bias. The presence of endogeneity can be resolved through so-called instrumental variables, which are used in the Two Stage Least Squares (2SLS) in order to obtain a consistent estimate of the e ffect ß . (This thesis is supervised in English).

    Introductory Literature:

    • Jeff rey M. Wooldridge. 2013. Introductory econometrics: A modern approach. Nelson Education (Chap. 15)
    • James H. Stock und Mark W. Watson. 2011. Introduction to Econometrics. Pearson Education (Chap. 12)

    Simultaneous systems of equations

    Consider a simple simultaneous system of equations, where it is characteristic is that y_1,t and y_2,t appear both on the left in an equation and on the right in an equation. Therefore, an endogeneity problem arises. Two problems should be explained in detail in this work: First, the problem of identification, i.e. under which circumstances gamma_1 and gamma_2 can be estimated. Second, one should introduce an estimator that works under endogeneity and estimates the coefficients of the system equation by equation. (This thesis is supervised in English).

    Introductory Literature:

    • William H. Greene. 2012. Econometric analysis. Pearson Education (Chap. 10)
    • Fumio Hayashi. 2000. "Econometrics". Princeton University Press (Chap. 8)
    • Je ffrey M. Wooldridge. 2010. Econometric analysis of cross section and panel data. MIT Press (Chap. 8 + 9)

    Endogeneity: Generalized Method of Moments (GMM)

    Endogeneity bias can lead to inconsistent estimates and incorrect inferences, which may provide misleading conclusions and inappropriate theoretical interpretations. GMM is a statistical method that combines economic data with the information in population moment conditions and is able to estimate all coefficients simultaneously. The idea behind GMM must be explained and then applied to solve the system. (This thesis is supervised in English).

    Introductory Literature:

    • William H. Greene. 2012. Econometric analysis. Pearson Education (Chap. 13)
    • Je ffrey M. Wooldridge. 2010. Econometric analysis of cross section and panel data. MIT Press (Chap. 8)
    • Fumio Hayashi. 2000. "Econometrics". Princeton University Press (Chap. 8)
    • Jeffrey M. Wooldridge. 2001. "Applications of generalized method of moments estimation". Journal of Economic perspectives 15 (4): 87-100
  • Spezielle Regressionsmodelle

    Modelle für Binärvariablen: Logit und Probit

    Binärvariablen sind Variablen, die nur die Werte 0 und 1 realisieren. Sie werden typischerweise dazu verwendet, um zu zeigen, ob ein bestimmtes Ereignis eingetreten ist oder nicht. Da die beobachteten y Werte in diesem Fall als Wahrscheinlichkeiten interpretiert werden und ein OLS-Modell für y Werte voraussagen könnte, die Eins über- oder Null unterschreiten, ist eine Interpretation nicht gewährleistet. Um mit diesem und anderen Problemen umgehen zu können, können die nichtlinearen Logit- und Probit-Modelle verwendet werden. Hierbei werden die Reaktionswahrscheinlichkeiten bezüglich x restringiert. Das Ziel der Arbeit ist die Vorstellung und Interpretation dieser Modelle. Daneben können auch Tests oder Endogenität vorgestellt werden.

    Einstiegsliteratur:

    • Je ffrey M. Wooldridge. 2010. Econometric analysis of cross section and panel data. MIT Press (Kap. 15)
    • William H. Greene. 2012. Econometric analysis. Pearson Education (Kap. 17)

    Modelle für kategoriale Variablen: Multinomial Logit

    Eine kategoriale, oder auch nominale, Variable ist eine Variable, die in eine bestimmte Kategorie fällt und keine sinnvolle Ordnung aufweist. Das multinomiale Logit Modell wird verwendet, um eine Wahrscheinlichkeit einer bestimmten Entscheidung unter zwei oder mehr Alternativen zuzuweisen. Zum Beispiel ist die Wahl des Verkehrsmittels, um zur Arbeit zu gelangen, gegeben durch: das Auto, den Bus, den Zug oder das Fahrrad. In dieser Arbeit sollen das standard Logit sowie die Erweiterung zum multinomialen Modell definiert werden. Des Weiteren sollen die Interpretation dieser Modelle und auch Tests vorgestellt werden. Eine Erweiterung bezüglich des Nested Logits ist auch möglich.

    Einstiegsliteratur:

    • William H. Greene. 2012. Econometric analysis. Pearson Education (Kap. 18)
    • Je ffrey M. Wooldridge. 2010. Econometric analysis of cross section and panel data. MIT Press (Kap. 16)

    Modelle für ordinalskalierte Variablen: Ordered Probit

    Eine ordinalskalierte Variable ist eine Variable, die eine bestimmte Reihenfolge (oder auch Ordnung) der Variablenwerte aufweist. Das bedeutet, sie können zwar in eine auf- oder absteigende Reihenfolge gebracht werden, allerdings geben diese Variablen keinerlei Auskunft über die Abstände zwischen den Rangplätzen. Als Beispiel fur solche geordneten multinomialen Entscheidungsvariablen sind Bond Ratings oder die Ergebnisse aus einem Geschmackstest. Um diesen Variablen dann Wahrscheinlichkeiten zuordnen zu können, wird das Ordered Probit-Modell verwendet. Ziel dieser Arbeit ist die Motivation dieses Modells, sowie die Vorstellung der standard Probit- und Ordered Probit-Modelle. Des Weiteren sollen Tests und die Interpretation der Koeffizienten erklärt werden.

    Einstiegsliteratur:

    • William H. Greene. 2012. Econometric analysis. Pearson Education (Kap. 18)
    • Je ffrey M. Wooldridge. 2010. Econometric analysis of cross section and panel data. MIT Press (Kap. 16)

    Modelle für zensierte Daten: Tobit

    Zensierte Daten sind Daten, die "abgeschnitten" sind. Seien wir interessiert an der Nachfrage von Eintrittskarten für ein bestimmtes Event, haben aber nur die Anzahl der verkauften Karten als Maßzahl gegeben, so ist die Variable der Nachfrage limitiert, wenn z.B. das Konzert ausverkauft ist. Das Tobit-Modell ist so aufgebaut, dass es die Zensierung der latenten Variable y* berücksichtigt. Das Tobit-Modell adressiert den Informationsverlust durch die Zensierung, indem es allen beobachtbaren Werten per Definition den latenten Wert zuordnet, solange y* größer als Null ist. Ziel dieser Arbeit ist die Motivation der Modelle, hauptsächlich basierend auf Zensierung und Corner Solutions, sowie die Vorstellung des Tobit-Modells. Darüber hinaus soll auf Spezifi kationsprobleme und die Interpretation der Koeffizienten eingegangen werden.

    Einstiegsliteratur:

    • Jeff rey M. Wooldridge. 2010. Econometric analysis of cross section and panel data. MIT Press (Kap. 17)
    • William H. Greene. 2012. Econometric analysis. Pearson Education (Kap. 19) 5

    Treatment Effects: Matching-Schätzer

    Mit Average Treatment E ffects versuchen Sozialwissenschaftler, die Auswirkungen von Maßnahmen wie z.B. der Teilnahme an einem Job- Training fur Arbeitslose zu messen. Insbesondere stellt sich die Frage, wie diese Auswirkungen gemessen werden können, wenn kein randomisiertes Experiment vorliegt, d.h. die teilnehmende von der nicht-teilnehmenden Gruppe unterschiedlich sein kann. Mit Matching-Schätzern wird versucht, dennoch eine Vergleichbarkeit dieser beiden Gruppen herzustellen, indem auf die äußeren Merkmale abgestellt wird. In dieser Arbeit soll das Covariate Matching vorgestellt werden. Verschiedene Matching-Funktionen und Abstandsmaße sollen verglichen werden.

    Einstiegsliteratur:

    • Giovanni Cerulli. 2015. Econometric Evaluation of Socio- Economic Programs: Theory and Applications. 308. Berlin, Heidelberg: Springer (Kap. 2)
    • Jeff rey M. Wooldridge. 2010. Econometric analysis of cross section and panel data MIT Press. Vol. 2. Cambridge: MIT Press (Kap. 21)

    Treatment Effects: Propensity Score

    Mit Average Treatment Effects versuchen Sozialwissenschaftler, die Auswirkungen von Maßnahmen wie z.B. der Teilnahme an einem Job-Training für Arbeitslose zu messen. Insbesondere stellt sich die Frage, wie diese Auswirkungen gemessen werden können, wenn kein randomisiertes Experiment vorliegt, d.h. die teilnehmende von der nicht-teilnehmenden Gruppe unterschiedlich sein kann. Mit dem Propensity Score wird versucht, dennoch eine Vergleichbarkeit dieser beiden Gruppen herzustellen, indem auf den sogenannten Propensity Score abgestellt wird, der die Wahrscheinlichkeit, zu einer Gruppe zu gehören, angibt. In dieser Arbeit soll das Propensity-Score Matching vorgestellt werden. Verschiedene Eigenschaften des Propensity-Scores sollen beschrieben werden.

    Einstiegsliteratur:

    • Giovanni Cerulli. 2015. Econometric Evaluation of Socio- Economic Programs: Theory and Applications. 308. Berlin, Heidelberg: Springer (Kap. 2)
    • Je ffrey M. Wooldridge. 2010. Econometric analysis of cross section and panel data MIT Press. Vol. 2. Cambridge: MIT Press (Kap. 21)

    Treatment Effects: Sample Selection Schätzer

    Mit Average Treatment Effects versuchen Sozialwissenschaftler, die Auswirkungen von Maßnahmen wie z.B. der Teilnahme an einem Job-Training für Arbeitslose zu messen. Insbesondere stellt sich die Frage, wie diese Auswirkungen gemessen werden können, wenn kein randomisiertes Experiment vorliegt, d.h. die teilnehmende von der nicht-teilnehmenden Gruppe unterschiedlich sein kann. Der Ansatz des Sample Selection Schätzers ist es, die sogenannte Selbstauswahl in eine dieser Gruppen explizit zu modellieren und damit die Schätzung des Effekts von dieser Selbstauswahl zu trennen. In dieser Arbeit soll das 2-Stufen Modell bestehend aus Probit und OLS-Schätzung vorgestellt werden.

    Einstiegsliteratur:

    • Giovanni Cerulli. 2015. Econometric Evaluation of Socio- Economic Programs: Theory and Applications. 308. Berlin, Heidelberg: Springer (Kap. 3)
    • Je ffrey M. Wooldridge. 2010. Econometric analysis of cross section and panel data MIT Press. Vol. 2. Cambridge: MIT Press (Kap. 19)

    Überlebenszeitanalyse: Nichtparametrik und Cox-Regression

    In der Medizin werden zum Vergleich von zwei Therapien häufig Verteilungen der Überlebenszeiten herangezogen. In dieser Arbeit sollen grundlegende Konzepte und Methoden der Überlebenszeitanalyse vorgestellt und auf Daten angewendet werden. Das nichtparametrische Kaplan-Meier-Verfahren, der Log-Rank-Test und die Cox-Regression sollen untersucht werden.

    Einstiegsliteratur:

    • Mario Cleves et al. 2010. An introduction to survival analysis using Stata. Vol. 3. Stata press (Kap. 8 und 9)
    • Jeffrey M. Wooldridge. 2010. Econometric analysis of cross section and panel data MIT Press. Vol. 2. Cambridge: MIT Press (Kap. 22)

    Überlebenszeitanalyse: Parametrische Ansätze

    In der Medizin werden zum Vergleich von zwei Therapien häufig Verteilungen der Überlebenszeiten herangezogen. In dieser Arbeit sollen parametrische Methoden der Überlebenszeitanalyse vorgestellt und auf Daten angewendet werden. Dabei wird unterstellt, dass die Verteilung der Überlebenszeit einer parametrischen Verteilungsfunktion folgt, die mit Maximum-Likelihood geschätzt werden kann. Es sollen verschiedene Modelle (z.B. Exponential-, Weibull-, Lognormal-, Generalized-Gamma-Modell) vorgestellt und miteinander verglichen werden.

    Einstiegsliteratur:

    • Mario Cleves et al. 2010. An introduction to survival analysis using Stata. Vol. 3. Stata press (Kap. 12 und 13)
    • Jeff rey M. Wooldridge. 2010. Econometric analysis of cross section and panel data MIT Press. Vol. 2. Cambridge: MIT Press (Kap. 22)
    • William H Greene. 2012. Econometric Analysis. Vol. 7. Pearson Education (Kap. 19)
  • Multivariate Methoden

    Analysis of Variance (ANOVA)

    ANOVA is the extension of the t- and z-tests where the means of two samples (or a sample and population) are compared relative to the standard error of the mean or pooled standard deviation. ANOVA is best applied where more than two populations are meant to be compared. The di erent test procedures as well as the motivation of the various test statistics should be presented. (This thesis is supervised in English).

    Introductory Literature:

    • Alvin C. Rencher und William F. Christensen. 2012. Methods of Multivariate Analysis. John Wiley & Sons, Inc. (Chap. 6)
    • Joseph F. Hair u. a. 2014. Multivariate Data Analysis. Pearson Education Limited (Chap. 14)

    Principal Component Analysis

    A principal component analysis (PCA) is concerned with explaining the variance-covariance structure through a few linear combinations of the original variables. Its general objectives are, first, data reduction and second, interpretation. An analysis of principal components often reveals relationships that were not previously suspected and thereby allows interpretations that would not ordinarily result. Therefore, it is extensively used for finding patterns in data of high dimension in the fi eld of fi nance, data mining, bioinformatics and environmental studies. (This thesis is supervised in English).

    Introductory Literature: 

    • Richard A. Johnson, Dean W. Wichern u. a. 2002. Applied multivariate statistical analysis. Prentice Hall, NJ (Chap. 8)
    • Alan J. Izenman. 2013. "Multivariate regression". In Modern Multivariate Statistical Techniques, 159-194. Springer (Chap. 7)
    • Wojtek J. Krzanowski. 1995. Recent advances in descriptive multivariate analysis. Clarendon Press (Chap. 5)
    • Markus Ringnér. 2008. "What is principal component analysis?" Nature biotechnology 26 (3): 303

    Factor Analysis

    In factor analysis, we represent the p elements of the vector y as linear combinations of a smaller number of m random variables, where m< p, called factors. Like the original variables, the factors vary from individual to individual; but unlike the variables, the factors cannot be measured or observed. The existence of these hypothetical variables is therefore open to question. If the p elements of vector y are at least moderately correlated, the basic dimensionality of the system is less than p. The goal of factor analysis is to reduce the redundancy (needlessness) among the variables by using a smaller number of factors. Motivation for factor models, model defi nition and assumptions as well as the estimation procedure should be covered. (This thesis is supervised in English).

    Introductory Literature:

    • Alvin C. Rencher und William F. Christensen. 2012. Methods of Multivariate Analysis. John Wiley & Sons, Inc. (Chap. 13)
    • Joseph F. Hair u. a. 2014. Multivariate Data Analysis. Pearson Education Limited (Chap. 3)

    Cluster Analysis

    In cluster analysis we search for patterns in a data set by grouping the (multivariate) observations into clusters. The goal is to find an optimal grouping for which the observations or objects within each cluster are similar, but the clusters are dissimilar to each other. To group the observations into clusters, many techniques begin with similarities between all pairs of observations. In many cases the similarities are based on some measure of distance. Other cluster methods use a preliminary choice for cluster centers or a comparison of within- and between-cluster variability. The techniques of cluster analysis have been extensively applied to data in many fields, such as medicine, psychiatry, sociology, criminology, anthropology, archaeology, geology, geography, remote sensing, market research, economics, and engineering. (This thesis is supervised in English).

    Introductory Literature:

    • Alvin C. Rencher und William F. Christensen. 2012. Methods of Multivariate Analysis. John Wiley & Sons, Inc. (Chap. 15)
    • Joseph F. Hair u. a. 2014. Multivariate Data Analysis. Pearson Education Limited (Chap. 8)

MASTERARBEITEN

Die Masterarbeit im Bereich Statistik basiert wie die Bachelorarbeit auf einer Beschreibung neuer statistischer Verfahren und deren Anwendung auf konkrete Daten. Darüber hinaus können neue statistische Verfahren ausführlich und kritisch dargestellt oder eine empirische Studie zu einem statistischen Problem durchgeführt werden.

  • Anmeldung

    Bei den Masterarbeiten erfolgt die Zuteilung individuell auf Anfrage der Studierenden. Wenn Sie Ihre Masterarbeit gerne bei uns am Institut schreiben möchten, können Sie gerne Herrn Prof. Dr. Sibbertsen per E-Mail kontaktieren.

  • Themenvergabe

    Das Spektrum der Masterarbeitsthemen ist sehr vielfältig und reicht von überwiegend methodischen Arbeiten (Methodendarstellung, Methodenvergleich, Methodenentwicklung) bis zu eigenen empirischen Arbeiten (Datenerhebung und -auswertung) mit inhaltlichen Bezügen zu nahezu allen anderen volkswirtschaftlichen wie auch betriebswirtschaftlichen Wahlpflichtfächern.

    Die Themenvergabe erfolgt in direkter Absprache mit Ihnen. Gerne berücksichtigen wir dabei Ihre eigenen Themenvorstellungen.


HINWEISE FÜR ABSCHLUSSARBEITEN

Hier finden Sie weitere Informationen zu den Anforderungen an Bachelorarbeiten sowie eine Vorlage für die Gestaltung in LaTeX.

KONTAKT FÜR ALLGEMEINE FRAGEN ZU ABSCHLUSSARBEITEN

Janina Brauer
Sprechzeiten
Mo. - Do. 09:00 - 11:00 Uhr
Adresse
Königsworther Platz 1
30167 Hannover
Gebäude
Raum
011
Janina Brauer
Sprechzeiten
Mo. - Do. 09:00 - 11:00 Uhr
Adresse
Königsworther Platz 1
30167 Hannover
Gebäude
Raum
011