Downloads

Human versus statistical forecasting

Renato Frey

Dieses Seminar ist beendet.


Übersicht

Die Zukunft geht mit Unsicherheit einher – deshalb interessieren sich Menschen brennend für die verschiedensten Vorhersagen: Welchen Krankheitsverlauf prognostiziert ein medizinisches Testresultat? Wird eine Finanzkrise eintreten oder nicht? Nicht selten werden wir auch selbst zu "Propheten", wie zum Beispiel wenn es darum geht, den nächsten Fussballweltmeister vorherzusagen. Vorhersagen sind allerdings nicht nur faszinierend, sondern oft auch komplex und schwierig. Auf welchen Informationen sollten unsere Vorhersagen im Idealfall basieren, und auf welchen Informationen basieren sie tatsächlich? Wie gut sind die Vorhersagen von Menschen vs. Maschinen? In diesem Seminar behandeln wir die Grundprinzipien und die Psychologie von erfolgreichem Vorhersagen und untersuchen insbesondere, wie gut diverse Vorhersagetechniken unter verschiedenen Bedingungen funktionieren.

Lernziele

Die zentralen Konzepte von forecasting verstehen und selbst implementieren können. Um die behandelten Konzepte anwenden zu lernen, werden Sie als Vorbereitung auf die Sitzungen sowie während dem Seminar Vorhersagemodelle in der Programmiersprache R implementieren. Ein Refresher in R vor dem Seminar ist deshalb äusserst empfehlenswert.

Forecasting tournament

Über das ganze Seminar hinweg wird es ein "forecasting tournament" geben, bei welchem regelmässig neue Forecasting Algorithmen hochgeladen bzw. mit neuen Daten ge-updated werden müssen. Diese Modelle werden hauptsächlich in R implementiert. Gute Einführungen in R gibt es auf Datacamp oder hier YaRrr! The Pirate's Guide to R.

Hier geht es direkt zum forecasting tournament.

Hauptliteratur

Folgende Bücher sind empfehlenswert zur Vorbereitung und Vertiefung (einzelne Kapitel davon sind zentraler Bestandteil vom Seminar, siehe "Sitzungen"):

  • Armstrong, J. S. (2002). Principles of forecasting: A handbook for researchers and practitioners. Norwell, MA: Kluwer Academic.
  • Tetlock, P. E., & Gardner, D. (2015). Superforecasting: The art and science of prediction. New York: Crown.
  • Tetlock, P. E. (2006). Expert political judgment: How good is it? How can we know? Princeton University Press.

Sitzungen

23.02.2023 - Einführung und Übersicht

02.03.2023 - Judgmental Forecasting I

Literature:

  • Arkes, H. R. (2002). Overconfidence in judgmental forecasting. In J. S. Armstrong (Ed.), Principles of forecasting: A handbook for researchers and practitioners (2001 edition, pp. 495–515). Boston, MA: Springer.

09.03.2023 - Judgmental Forecasting II

Literature:

  • Primär: Armstrong, J. S., Green, K. C., & Graefe, A. (2015). Golden rule of forecasting: Be conservative. Journal of Business Research, 68(8), 1717–1731.

16.03.2023 - Judgmental Forecasting III / Scoring Rules

Literature:

  • Primär: Hastie, R., & Dawes, R. M. (2010). A general framework for judgment. In Rational choice in an uncertain world: The psychology of judgment and decision making (pp. 47–72). SAGE.
  • Zusatz: Hogarth, R. M. (2006). On ignoring scientific evidence: The bumpy road to enlightenment. SSRN eLibrary. Retrieved from http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1002512

23.03.2023 - Statistical Forecasting I / Scoring rules

Literature:

  • Babyak, M. A. (2004). What you see may not be what you get: a brief, nontechnical introduction to overfitting in regression-type models. Psychosomatic Medicine, 66(3), 411–421.
  • Zusatz: Armstrong, J. S., & Collopy, F. (1992). Error measures for generalizing about forecasting methods: Empirical comparisons. International Journal of Forecasting, 8(1), 69–80. http://doi.org/10.1016/0169-2070(92)90008-W

Various:

30.03.2023 - Statistical Forecasting II / Overfitting

Literature:

  • Babyak, M. A. (2004). What you see may not be what you get: a brief, nontechnical introduction to overfitting in regression-type models. Psychosomatic Medicine, 66(3), 411–421.

06.04.2023 - Statistical Forecasting III

Literature:

  • Dawes, R. M. (1979). The robust beauty of improper linear models in decision making. American Psychologist, 34(7), 571–582. http://doi.org/10.1037/0003-066X.34.7.571
  • Zusatz: Dawes, R. M., Faust, D., & Meehl, P. E. (1989). Clinical versus actuarial judgment. Science, 243(4899), 1668–1674.

13.04.2023 - NO SESSION

20.04.2023 - Extrapolation / Time-series I

Literature:

  • Armstrong, J. S. (2002). Extrapolation. In Principles of forecasting: A handbook for researchers and practitioners (pp. 217–243). Norwell, MA: Kluwer Academic.

27.04.2023 - Extrapolation / Time-series II

Literature:

  • Armstrong, J. S. (2002). Extrapolation. In Principles of forecasting: A handbook for researchers and practitioners (pp. 217–243). Norwell, MA: Kluwer Academic.

Various:

04.05.2023 - Combining Forecasts / Ensemble Methods

Literature:

  • Combining forecasts (Armstrong, 2001)

11.05.2023 - Online: Group forecasting / Delphi

Literature:

  • Hastie, R., & Kameda, T. (2005). The robust beauty of majority rules in group decisions. Psychological Review, 112(2), 494–508.

18.05.2023 - NO SESSION

25.05.2023 - Forecasting tournam.: Presentations & Evaluation

Literature:

  • Armstrong, J. S. (2006). Findings from evidence-based forecasting: Methods for reducing forecast error. International Journal of Forecasting, 22(3), 583–598. http://doi.org/10.1016/j.ijforecast.2006.04.006

01.06.2023 - Forecasting tournam.: Presentations & Evaluation

Literature:

  • Armstrong, J. S. (2006). Findings from evidence-based forecasting: Methods for reducing forecast error. International Journal of Forecasting, 22(3), 583–598. http://doi.org/10.1016/j.ijforecast.2006.04.006