Dokumentation und Hilfe

Allgemein

Der Begriff Jährlichkeit definiert die Wahrscheinlichkeit für das Eintreten eines Ereignisses mit der dazugehörigen Abflussmenge. Im Falle eines HQ100 z.B. beträgt die Wahrscheinlichkeit 0,01 pro Jahr, dass dieses Ereignis überschritten wird. Ein alternativer Begriff zur Jährlichkeit, ist das mittlere statistische Wiederkehrintervall.

Es ist möglich, dass im Profil Jährlichkeiten von bis zu 10.000 Jahre gespeichert werden können. Bedenken Sie, dass Jährlichkeiten größer als 200 Jahre, zu deutlichen Unsicherheiten führen.

Derzeit werden die ausgewählten Daten auf abhängige Ereignisse geprüft. Das bedeutet, dass der Abstand zwischen den Ereignissen mindestens 7 Tage betragen muss, sonst handelt es sich um ein abhängiges Ereignis. Diese Prüfung wird für alle Datentypen durchgeführt, mit Ausnahme der täglichen Daten. Die Anzahl an abhängigen Ereignissen bezieht sich daher auf die im Pegelbaum ausgewählten Daten, auch wenn die Daten für die statistische Methode intern nochmal aggregiert werden.
Daten

Bei dieser Methode können Sie Ihren Datensatz temporär abspeichern. Das bedeutet, sobald Sie einen neuen Datensatz hochladen, verfällt der ursprüngliche Datensatz oder wird bei gleicher Benennung überschrieben. Um diese Daten erneut verwenden zu können, müssen diese auch erneut hochgeladen oder permanent in der Datenbank gespeichert werden. Der aktuell verwendete Datensatz ist oben rechts unter „Aktiver Datensatz“ zu finden. Sollten Sie während einer aktiven Sitzung einen anderen Datensatz im Pegelkatalog ausgewählt haben, so besteht die Möglichkeit im Katalog unter „Hochgeladen“ den ursprünglichen temporären Datensatz wieder auszuwählen.

In der Abfluss-Datenbank haben Sie die Möglichkeit mehrere Datensätze einem Flusseinzugsgebiet zu zuweisen. Dadurch werden die Datensätze permanent gespeichert und ein schneller Wechsel zwischen den Datensätzen ist über den Pegelkatalog möglich. Alternativ zum Flusseinzugsgebiet können z.B. auch Projektnamen eingegeben werden, wodurch die Organisation der Daten erleichtert wird.

Jede/r Nutzer/in ist einem Lizenzhalter zugewiesen. Ein Lizenzhalter ist eine Firma, Institution, Uni etc., die eine gewisse Anzahl an Lizenzen erwirbt und diese intern weitervergibt. Alle Nutzer eines Lizenzhalters haben Zugriff auf dieselbe Datenbank. Es ist daher möglich, die Daten der eines anderen Nutzers zu sehen, zu löschen oder zu überschreiben. Welche/r Nutzer/in welche Daten hochgeladen hat ist jedoch nicht zu erkennen.

Stellen Sie sicher, dass die Zeitangabe einem langen Datumsformat entspricht und nicht der bloßen Jahresangabe. Das bedeutet, dass z.B. 2018, 2019, 2020 im Format 01.01.2018, 01.01.2019, 01.01.2020 vorliegen. Hierbei macht es keinen Unterschied, ob Sie den 01.01. eines Jahres wählen, oder das Datum, an dem der HQ-Wert aufgezeichnet wurde. Wichtig ist nur das Format des Datums.

Gültige Formate sind:
  • tt.mm.JJJJ (z.B. 31.01.2019)
  • JJJJ-mm-tt (z.B. 2019-01-31)
  • tt/mm/JJJJ (z.B. 31/01/2019)
  • Extremwertstatistik

    Bei dem Kolmogorov-Smirnov Test werden sowohl die empirische Verteilungsfunktion als auch eine theoretische Verteilungsfunktion (z. B. GEV, Gumbel…) an die Daten angepasst. Beide Verteilungsfunktionen werden dann miteinander verglichen, indem die betragsmäßig größte Differenz zwischen beiden ermittelt wird, um die Aussage treffen zu können, ob die Daten der theoretischen Verteilungsfunktion folgen oder nicht.
    Im Vergleich zu einer theoretischen Verteilungsfunktion (z.B. GEV, Gumbel), die zeigt, wie wahrscheinlich es ist, dass ein bestimmter Wert höchstens erreicht wird, zeigt die empirische Verteilungsfunktion wie hoch der Anteil der Stichprobe kleiner oder gleich diesem Wert ist.
    Die Hypothesen lauten wie folgt:
  • Nullhypothese (H0): Die Daten folgen der theoretischen Verteilung
  • Alternativhypothese (H1): Die Daten folgen der theoretischen Verteilung nicht
  • Die Nullhypothese wird verworfen, wenn der p-Wert unterhalb des Signifikanzniveaus von 0.05 liegt.
    Die Ausgabe innerhalb dieser Software entspricht dem p-Wert.

    Bei dem Cramér-von-Mises Test handelt es sich um eine Abwandlung des Kolmogorov-Smirnov Tests, mit dem Unterschied, dass die Summe der quadrierten Abweichungen zwischen der theoretischen und empirischen Unterschreitungswahrscheinlichkeit berechnet wird. Die Hypothesen lauten wie folgt:
  • Nullhypothese (H0): Die Daten folgen der theoretischen Verteilung
  • Alternativhypothese (H1): Die Daten folgen der theoretischen Verteilung nicht
  • Die Nullhypothese wird verworfen, wenn der p-Wert unterhalb des Signifikanzniveaus von 0.05 liegt.
    Die Ausgabe innerhalb dieser Software entspricht dem p-Wert.

    Der Anderson-Darling Test vergleicht die Häufigkeitsverteilung mit einer theoretischen Verteilungsfunktion. Anders als beim KS-Test, wird die Summe der quadrierten Abweichung berechnet. Die Hypothesen lauten wie folgt:
  • Nullhypothese (H0): Die Häufigkeitsverteilung entspricht der theoretischen Verteilung
  • Alternativhypothese (H1): Die Häufigkeitsverteilung entspricht der theoretischen Verteilung nicht
  • Die Nullhypothese wird verworfen, wenn der p-Wert unterhalb des Signifikanzniveaus von 0.05 liegt.
    Die Ausgabe innerhalb dieser Software entspricht dem p-Wert.

    Hierbei wird der Korrelationskoeffizient zwischen der geordneten Stichprobe und der Quantilsfunktion der gewählten theoretischen Verteilungsfunktion. Ein Wert von 0 bedeutet, dass keine Korrelation vorliegt. Dagegen bedeutet ein Wert von 1, dass eine Korrelation vorliegt. Die Ausgabe innerhalb dieser Software entspricht dem Korrelationskoeffizienten, welcher zwischen 0 und 1 liegt.

    Durch Informationskriterien ist es möglich, verschiedene Verteilungsfunktionen miteinander zu vergleichen. Prinzipiell wird ein Kompromiss zwischen der Anpassungsgüte und der Komplexität einer Verteilungsfunktion gefunden. Die Komplexität definiert sich über die Anzahl der Verteilungsparameter, weshalb es vorkommen kann, dass Verteilungsfunktionen mit wenigen Parametern begünstigt werden. Denn auch wenn die Anpassung komplexer Verteilungsfunktionen geringfügig besser ist, steigen auch deren Unsicherheiten, was Informationskriterien negativ bewerten.
    Die beiden Informationskriterien AIC (Akaike-Kriterium) und BIC (Bayes´sche Kriterium) sind die am häufigsten verwendeten Kriterien. Anders als bei den Anpassungstests, wird hier kein p-Wert ausgegeben und mit dem Signifikanzniveau verglichen. Sowohl für AIC und BIC wird die Wahl auf die Verteilungsfunktion festgelegt, die den niedrigsten Wert aufweist. Von diesem Minimum aus, werden alle Verteilungsfunktionen verworfen, die um mehr als 6 abweichen oder nicht berechnet werden konnten.

    Verteilungsfunktionen, die um weniger als 6 vom Minimum abweichen, können als geeignet angesehen werden. Ergänzend folgt bei der Wahl der Verteilungsfunktion/en nach wie vor die visuelle und hydrologische Beurteilung.

    In der Hydrologie ist es üblich ein Signifikanzniveau von 5% anzunehmen, daher ist dieser Wert in allen Fällen, mit 0.05 fest definiert. Dieser Wert kann nicht verändert werden.
    Partielle Serien

    Eigene partielle Serien zu verwenden ist grundsätzlich möglich. Wenn diese hochgeladen wird, erscheint im Pegelkatalog ein P (Partielle Serie).

    Um die Extremwertstatistik ordnungsgemäß auf eine eigene partiellen Serie anzuwenden, trägt man im Reiter "Partielle Serien" den Grenzwert (eigener Grenzwert) von 0 ein.
    Kleeberg-Schumann-Verfahren

    Das aus dem Jahre 2001 stammende Kleeberg-Schumann-Verfahren beruht auf einer Maximierung der Schiefe der Pearson-III-Verteilung basierend auf einer Auswertung von 1169 Pegeln in Deutschland. Da dieser Ansatz nicht mehr zeitgemäß ist, wurde ein neuer Berechnungsansatz gesucht. Auf Grundlage von 700 Beobachtungsreihen an deutschen Pegeln wurden zwei neue Methoden entwickelt:
  • Fortschreibung des Kleeberg-Schumann-Ansatzes unter Verwendung der Generalisierten Extremwertverteilung (GEV) und Ermittlung der L-Schiefe als 95%-Quantil (Q-Verfahren - pauschale Maximierung der L-Schiefe)
  • Differenzierter Ansatz zur Schätzung der maximierten Schiefe unter Berücksichtigung beobachteter Höchstwerte der Scheitelabflüsse (QK-Verfahren - differenzierte Maximierung der L-Schiefe)
  • Die Datenbasis für den neuen Berechnungsansatz wurde erweitert und basiert nun auf jährlichen Zeitreihen von 700 Pegeln, die jeweils mindestens 30 Jahre Beobachtungszeitraum aufweisen.
  • Statt der Pearson-III-Verteilung wird die Generalisierte Extremwertverteilung (GEV) verwendet.
  • Die Schätzung der Verteilungsparameter erfolgt mit Hilfe der L-Momente, da diese im Vergleich zu den Produktmomenten, robuster sind.
  • Ein Verfahren basiert auf einer pauschalen , das andere auf einer differenzierten Maximierung der L-Schiefe. Durch den medianbezogenen HHQ-Werten, kann das Hochwasserregime an den Pegeln berücksichtigt werden.
  • Der BHHQ ist das Verhältnis vom größten HQ-Wert der Pegelreihen (HHQ) und dem Median der Reihe und ist für das QK-Verfahren von Bedeutung. Beim QK-Verfahren hängt die Größe der L-Schiefe maßgeblich von den beobachteten Höchstwerten der Pegelreihe ab. Je stärker die Höchstwerte von der Gesamtheit der beobachteten Jahreshöchstabflüsse abweichen, desto ausgeprägter ist die L-Schiefe. Eine Abnhame der L-Schiefe ist beim umgekehrten Fall zu erwarten. Da eine hohe Korrelation zwischen der L-Schiefe und dem BHHQ besteht, wurde dieser Zusammenhang genutzt, um die Maximierung der L-Schiefe gruppenweise zu differenzieren. Vor Anwendung des Verfahren gilt es, den berechneten BHHQ-Wert zu beurteilen. Bei einem kleinen BHHQ-Wert von <3, besteht die Annahme, dass die Höchstwerte unterschätzt wurden. Die Plausibilität der Extremwerte sollte daher vom Anwender geprüft werden. Mit Hilfe der manuellen Eingabe des BHHQ-Wertes, kann der Anwender, aufgrund der oben beschriebenen Zusammenhänge, die Grupper der zu maximierenden Schiefe anpassen. Andernfalls erfolgt intern die Berechnung des BHHQ-Wertes (basierend auf der Pegelreihe) und Zuordnung der Gruppe für die Maximierung. Der BHHQ wird wie folgt gruppiert:
  • 1-2
  • 2-3
  • 3-5
  • 5-9
  • >9
  • Das Kleeberg-Schumann-Verfahren sowie die beiden überarbeiteten Verfahren, dienen zur Berchenung der Hochwasserquantile für Jährlichkeiten zwischen 200 und 10.000 Jahren. Darunter liegende Jährlichkeiten werden mit der zugrundeliegenden Verteilungsfunktion (GEV oder Pearson-III) berechnet. Die Ausgabe wurde daher so konzipiret, dass je nach Profileinstellung, ein Übergang zwischen den Gültigkeitsbereichen der Jährlichekeiten erfolgt.

    Das Kleeberg-Schumann-Verfahren sowie das überarbeitete Quantil- und Multiple-Regression-Verfahren, dienen zur Berechnung von Hochwasserquantilen sehr kleiner Unterschreitungswahrscheinlichkeiten, bzw. sehr großen Jährlichkeiten. Daher wird eine minimale Jährlichkeit von 200 Jahren und eine maximale Jährlichkeit von 10.000 Jahren als gültiger Bereich definiert, in welchem die drei Verfahren angewendet werden können. Für Jährlichkeiten kleiner 200 Jahren, sind die Methoden aus DWA-M-552 zu verwenden.
    Copula
    Typisierung
    Profil