feed icon rss

Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
  • 11
    UID:
    edochu_18452_19410
    Format: 1 Online-Ressource (14 Seiten)
    Content: Analysis of monthly disaggregated data from 1978 to 2016 on US household in ation expectations reveals that exposure to news on in ation and monetary policy helps to explain in ation expectations. This remains true when controlling for household personal characteristics, their perceptions of the effectiveness of government policies, their expectations of future interest rates and unemployment, and their sentiment levels. We find evidence of an asymmetric impact of news on in ation expectations particularly after 1983, with news on rising in ation and easier monetary policy having a stronger effect in comparison to news on lowering in ation and tightening monetary policy.
    Language: English
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 12
    Online Resource
    Online Resource
    Berlin : Humboldt-Universität zu Berlin
    UID:
    edochu_18452_19460
    Format: 1 Online-Ressource (22 Seiten)
    Content: High-frequency data can provide us with a quantity of informa- tion for forecasting, help to calculate and prevent the future risk based on extremes. This tail behaviour is very often driven by ex- ogenous components and may be modelled conditional on other vari- ables. However, many of these phenomena are observed over time, exhibiting non-trivial dynamics and dependencies. We propose a func- tional dynamic factor model to study the dynamics of expectile curves. The complexity of the model and the number of dependent variables are reduced by lasso penalization. The functional factors serve as a low-dimensional representation of the conditional tail event, while the time-variation is captured by factor loadings. We illustrate the model with an application to climatology, where daily data over years on temperature, rainfalls or strength of wind are available.
    Language: English
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 13
    Online Resource
    Online Resource
    Berlin : Humboldt-Universität zu Berlin
    UID:
    edochu_18452_19254
    Format: 1 Online-Ressource (47 Seiten)
    Content: Systemically important banks are connected and have dynamic dependencies of their default probabilities. An extraction of default factors from cross-sectional credit default swaps (CDS) curves allows to analyze the shape and the dynamics of the default probabilities. Extending the Dynamic Nelson Siegel (DNS) model, we propose a network DNS model to analyze the interconnectedness of default factors in a dynamic fashion, and forecast the CDS curves. The extracted level factors representing long-term default risk demonstrate 85.5% total connectedness, while the slope and the curvature factors document 79.72% and 62.94% total connectedness for the short-term and middle-term default risk, respectively. The issues of default spillover and systemic risk should be weighted for the market participants with longer credit exposures, and for regulators with a mission to stabilize financial markets. The US banks contribute more to the long-run default spillover before 2012, whereas the European banks are major default transmitters during and after the European debt crisis either in the long-run or short-run. The outperformance of the network DNS model indicates that the prediction on CDS curve requires network information.
    Language: English
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 14
    UID:
    edochu_18452_14854
    Format: 1 Online-Ressource (54 Seiten)
    Content: Wachsende Komplexität der finanziellen Instrumenten und verbessernde Verfügbarkeit der Daten sowie die Vielfältigkeit der Daten stellen neue Herausforderungen für die Akademiker und für die Praktiker. Eine der größten Herausforderung allerdings stellt die hohe Dimensionalität dar. Die Schwierigkeit liegt in erster Linie steht darin dass die traditionellen statistische Methoden sind in höhere Dimensionen nicht verwendbar. In dieser Masterarbeit werden verschiedene Methoden für die Reduktion der Dimensionalität verglichen im Bezug auf die Schätzung der Kovarianzmatrix. Diese Masterarbeit besteht aus zwei Teilen: mit der Hilfe der Schätzer der Kovarianzmatrix die im ersten Teil der Arbeit analysiert werden, werden im zweiten Teil der Arbeit die Value-at-Risk berechnet. In jedem Teil wird zuerst das theoretische Konzept präsentiert und danach empirisch getestet. Die empirische Analyse wurde mit der Hilfe des Maltabs gemacht.
    Content: Increasing complexity of financial instruments and improving data availability along with its variability pose new challenges for the academics as well as for practitioners. In particular, the problem of estimation and inference in case of high-dimensionality receives growing attention. The main difficulty with highdimensional data lies in the fact that most of the traditional statistical methodology was developed for the case when dimension, p, is lower than the sample size, n. In this thesis several approaches to reduce the dimensionality of the data are analyzed with respect to covariance matrix estimation. In this thesis several approaches to reduce the dimensionality of the data are analyzed with respect to covariance matrix estimation. The estimates of covariance matrix employed in the first part of the thesis are then used for estimation of value-at-risk in the second part of the thesis. For each method a concise theoretical outline is presented. The empirical analysis is performed in Matlab.
    Note: Masterarbeit Humboldt-Universität zu Berlin, Wirtschaftswissenschaftliche Fakultät 2013
    Language: English
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 15
    UID:
    edochu_18452_14848
    Format: 1 Online-Ressource (45 Seiten)
    Content: Im Mittelpunkt der Arbeit steht die Quantifizierung von Schätzabweichungen der Personen- und Aufgabenparameter im Rasch-Modell, insbesondere unter Berücksichtigung von Modellverletzungen. Mithilfe einer Monte-Carlo-Simulation werden „wahre“ Parameter generiert und eine Antwortmatrix erzeugt. Daraus berechnet das Rasch- Modell Schätzwerte für die Fähigkeiten von Personen und Schwierigkeiten von Aufgaben. Von den Schätzungen und den wahren Werten werden die mittleren betragsmäßigen Abweichungen und die Bias bestimmt. Die Einflüsse der Modellverletzungen auf die Schätzabweichungen werden mithilfe von robusten Regressionen (mit Bootstrapping) evaluiert. Die Analyse zeigt, dass die Parameter bei Gültigkeit des Rasch-Modells erwartungstreu geschätzt werden. Bei Annahmeverletzungen steigen die Schätzabweichungen zum Teil erheblich. Als schwerwiegendste Verletzung stellt sich die lokale stochastische Abhängigkeit heraus.
    Content: Focus of the thesis is the quantification of estimation errors of the person and item parameters in the Rasch model, under special consideration of model violations. With a Monte Carlo simulation "true" parameters are generated and a response matrix is created. From that matrix the Rasch model estimates the abilities of persons and the difficulties of items. Based on the estimates and the true values, mean absolute deviations and biases are computed. The effects of model violations on estimation errors are evaluated using robust regressions (with bootstrapping). The analysis shows that the parameter estimates are unbiased under validity of the Rasch model. When the assumptions are violated the estimation errors increase considerably in most cases. Local stochastic dependence is considered as the most serious violation.
    Note: Masterarbeit Humboldt-Universität zu Berlin, Wirtschaftswissenschaftliche Fakultät 2013
    Language: German
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 16
    UID:
    edochu_18452_19655
    Format: 1 Online-Ressource (38 Seiten)
    Content: Peu d'attention a jusqu'ici été accordée à appliquer la reconnaissance d'émotion faciale à la politique. Est-il possible de trouver un lien entre les émotions détectées sur les photos des candidats et les intentions de vote lors d'une campagne électorale ? Afin de répondre à cette question, nous utilisons la toute récente élection présidentielle française de 2017 comme cas d'étude pour prédire les tendances des sondages à l'aide des émotions des candidats détectées sur des photos de la presse. L'API Microsoft Emotion a été utilisée afin de fournir les données émotionnelles comme base pour notre étude. Un Perceptron multi-couches, une catégorie de réseau de neurones artificiel est implémenté afin de prédire le signe de la pente des sondages. Nous déduisons qu'il existe une corrélation modérée dans notre échantillon entre les concepts d'émotion faciale des candidats politiques et de tendance des sondages, notre algorithme atteignant 64% de précision.
    Content: Bisher wurde wenig Aufmerksamkeit auf die Anwendung von Gesichtsemotionserkennung in der Politik gelegt. Ist es möglich, eine Verbindung zwischen Emotionen von Kandidaten entnommen von Bildern und Abstimmungsabsichten bei einer politischen Wahl herzuleiten? Um diese Frage zu beantworten zu versuchen, nutzen wir als Fallstudie die jüngsten Präsidentschaftswahlen in Frankreich 2017 zur Vorhersage von Umfragetrends basierend auf den Emotionen der Kandidaten entnommen von Bildern aus der Presse. Wir verwenden die Microsoft Emotion API zur Bereitstellung der emotionalen Daten als Grundlage für unsere Studie. Ein mehrschichtiges Perzeptron, eine Art künstliches neuronales Netzwerk, wird implementiert, um die Richtung der Umfragetrends vorherzusagen. Unsere Ergebnisse zeigen eine moderate Korrelation in unserer Stichprobe zwischen den Konzepten der Gesichtsemotionen politischer Kandidaten und Umfragetrends. Unser Algorithmus erreicht 64% Genauigkeit.
    Content: Little attention has been paid so far on applying facial emotion recognition to politics. Is it possible to highlight a link between emotion detected on candidates pictures and voting intentions in a political election ? Trying to answer this question, we use the recent French 2017 presidential election as a case study to predict poll trends based on the emotions in pictures of the candidates in the press. The Microsoft Emotion API has been put to use in order to provide the emotional data as a basis for our study. A Multi Layer Perceptron, a type of Artificial Neural Network is implemented to predict the poll slope sign. We find that there is a moderate correlation in our sample between the concepts of facial emotions of political candidates and poll trends, our algorithm reaching 64% accuracy.
    Note: Masterarbeit Humboldt-Universität zu Berlin 2018
    Language: English
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 17
    UID:
    edochu_18452_21147
    Format: 1 Online-Ressource (18 Seiten)
    Content: Weather derivatives are contingent claims with payoff based on a pre-specified weather index. Firms exposed to weather risk can transfer it to financial markets via weather derivatives. We develop a utility-based model for pricing baskets of weather derivatives under default risk on the issuer side in over-the-counter markets. In our model, agents maximise the expected utility of their terminal wealth, while they dynamically rebalance their weather portfolios over a finite investment horizon. Using dynamic programming approach, we obtain semi-closed forms for the equilibrium prices of weather derivatives and for the optimal strategies of the agents. We give an example on how to price rainfall derivatives on selected stations in China in the universe of a financial investor and a weather exposed crop insurer.
    Content: Peer Reviewed
    In: Basel : MDPI, 5,4, Seiten 23/1-23/18
    Language: English
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 18
    Online Resource
    Online Resource
    Berlin : Humboldt-Universität zu Berlin
    UID:
    edochu_18452_21248
    Format: 1 Online-Ressource (27 Seiten)
    Content: Increasingly volatile and distributed energy production challenges traditional mechanisms to manage grid loads and price energy. Local energy markets (LEMs) may be a response to those challenges as they can balance energy production and consumption locally and may lower energy costs for consumers. Blockchain-based LEMs provide a decentralized market to local energy consumer and prosumers. They implement a market mechanism in the form of a smart contract without the need for a central authority coordinating the market. Recently proposed blockchain-based LEMs use auction designs to match future demand and supply. Thus, such blockchain-based LEMs rely on accurate short-term forecasts of individual households’ energy consumption and production. Often, such accurate forecasts are simply assumed to be given. The present research tested this assumption by first evaluating the forecast accuracy achievable with state-of-the-art energy forecasting techniques for individual households and then, assessing the effect of prediction errors on market outcomes in three different supply scenarios. The evaluation showed that, although a LASSO regression model is capable of achieving reasonably low forecasting errors, the costly settlement of prediction errors can offset and even surpass the savings brought to consumers by a blockchain-based LEM. This shows that, due to prediction errors, participation in LEMs may be uneconomical for consumers, and thus, has to be taken into consideration for pricing mechanisms in blockchain-based LEMs.
    Content: Peer Reviewed
    In: Basel : MDPI, 12,14
    Language: English
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 19
    UID:
    edochu_18452_21141
    Format: 1 Online-Ressource (57 Seiten)
    Content: Die Bedeutung von Startups für die wirtschaftliche Dynamik, Innovation und den Wettbewerb wurde bereits in der bestehenden Literatur anerkannt. Die höchst unsichere und volatile Natur des Startup-Ökosystems erschwert es, Informationen zu analysieren und zu interpretieren, um die Erfolgsquote eines Startups zu beurteilen. Die zeit- und rechenintensive Natur dieses Vorhersageproblems verdeutlicht die Notwendigkeit eines quantifizierten Modells, das einen objektiven Ansatz für die Vorhersage von erfolgreichen Startups ermöglicht. Das Ziel dieser Masterarbeit ist es, reproduzierbare Modelle für die Erfolgsvorhersage von Start-ups basierend auf maschinellen Lernverfahren zu erhalten. Frühere Literatur, die sich mit dem Vorhersageproblem befasst, greift fast ausschließlich auf Umfragedaten von Unternehmen zurück. Aufgrund der subjektiven Datenerhebung ist die wiederholbare und automatisierte Anwendung dieser Analysen und Schätzungen für zukünftige Erfolgsprognosen nicht möglich. Aus diesem Grund wird in dieser Masterarbeit auf öffentlich zugängliche und groß angelegte Daten der Online-Investor-Plattform crunchbase.com zurückgegriffen. Durch die Verwendung des Oversampling-Ansatzs ADASYN wird die Datenmenge vorverarbeitet, um eine Stichprobenverzerrung und -ungleichgewicht zu vermeiden. Insgesamt werden sechs verschiedene Modelle implementiert, um die Erfolgsquote von Start-ups vorherzusagen. Dabei handelt es sich um logistische Regressionen (voll und reduziert), Recursive Partitioning Tree, Conditional Inference Tree, Random Forest und Extreme Gradient Boosting. Mit einer Testsatz-Vorhersagegenauigkeiten von 94,1% bzw. 94,5%, sowie einer AUC von 92,22% bzw. 92,91% werden die Ensemble-Modelle, Random Forest und Extreme Gradient Boosting als leistungsstärkste Modelle ausgewählt. Die wichtigsten Variablen in diesen Modellen sind dabei Last Funding to Date, First Funding Lag und Company Age.
    Content: The importance of startups for economic dynamism, innovation and competition has been acknowledged in literature. The highly uncertain and volatile nature of the startup ecosys- tem makes it difficult to analyze and interpret information to evaluate if a startup will be successful. The time and computationally intensive nature of this prediction problem induces the need for a quantified model, which enables an objective approach to startup success pre- diction. In this paper, the objective is to obtain reproducible models for startup success prediction, using machine learning methods. Earlier literature predicting startup success almost exclusively relies on survey data collected from firms analyzed in those studies and estimation. Hence, it is almost impossible to apply them in a repeatable, automated way to future startup success prediction. In this paper publicly available, large scale data from online investor platform, crunchbase.com is used. The data is pre-processed for sampling bias and imbalance by using oversampling approach, ADASYN. A total of six different models are implemented to predict startup success, which are logistic regression (full and reduced); recursive partitioning tree; conditional inference tree; random forest and extreme gradient boosting. Using goodness-of-fit measures, applicable to each model case, the best models selected are the ensemble methods, random forest and extreme gradient boosting with a test set prediction accuracy of 94.1% and 94.5% and AUC of 92.22% and 92.91% respectively. Top variables in these models are last funding to date, first funding lag and company age. Models estimated in this study can be used to predict success rate for future new firms/ventures in a repeatable way, using publicly available large scale data.
    Note: Masterarbeit Humboldt-Universität zu Berlin 2019
    Language: English
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 20
    UID:
    edochu_18452_20876
    Format: 1 Online-Ressource (89 Seiten)
    Content: Die Historische Simulation zählt zu den Standardverfahren der Marktpreisrisikomessung. Eine wesentliche Modellannahme ist dabei die Wahl des Beobachtungszeitraums, aus dem die Szenarien für die Risikomessung generiert werden. Die vorliegende Arbeit setzt dabei den Fokus auf die Zinsposition des sogenannten "gleitenden Zehners", der als passive Fristentransformationsstrategie oder als Methode zur Eigenkapitalanlage Bedeutung hat. Zur Bestimmung des barwertorientierten Verlustrisikos wird für diese Position ein Index gebildet, für den ein geeignetes Volatilitätsmodell ermittelt wird. Durch Volatilitätsanalysen werden Phasen erhöhten Risikos identifiziert und Kandidaten für eine geeignete Parametrisierung der Beobachtungsperiode formuliert. Für diese Kandidaten erfolgt ein Modellvergleich auf Grundlage des Backtestings ihrer mittels Historischer Simulation ermittelten Risikowerte. Schließlich wird das zuvor gefundene Volatilitätsmodell verwendet, um alternative, fiktive Pfade der Datenhistorie zu simulieren. Auf dieser Grundlage werden die Kandidaten erneut einander gegenübergestellt, um eine optimale Wahl des Beobachtungszeitraums zu treffen.
    Content: The Historical Simulation is a standard method for computing Market Risk. A fundamental assumption is the choice of the historical time window for generating the scenarios. The present thesis focusses on an interest rate position equally distributed over ten years. This positioning is an important strategy in asset liability management, e.g. for equity investment or term transformation. Its present value is represented by an index for which a time series analysis is discussed. Periods of high volatility are identified and possible candidates for the optimal time window are concluded. These candidates are compared with respect to their backtesting results in the Historical Simulation. Moreover, the time series model from before is used to draw fictional alternative trajectories for the position’s value index. Based on these scenarios, the candidates are compared again to eventually find an optimal choice for the time window.
    Note: Masterarbeit Humboldt-Universität zu Berlin 2019
    Language: German
    URL: Volltext  (kostenfrei)
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. Further information can be found on the KOBV privacy pages