DISTRIBUCIONES DE PROBABILIDAD EN HIDROLOGÍA


 

El comportamiento de las variables aleatorias discretas o continuas se describe con la ayuda de Distribuciones de Probabilidad.  La variable se designa por mayúscula y un valor específico de ella por minúscula.

 

Por P(x = a) se denota la probabilidad de que un evento asuma el valor a; similarmente  P(a £ x  £ b) denota la probabilidad de que un evento se encuentre en el  intervalo (a,b).  Si conocemos la probabilidad  P(a £ x  £ b) para todos los valores de a y b, se dice que conocemos la Distribución de Probabilidades de la variable x.

 

Si x es un número dado y consideramos la probabilidad  P(X £ x):

 

F(x)= P(X £ x):

 

y llamamos F(x) la función de distribución acumulada.

 

Ejemplo

 

Se tienen las probabilidades de que haya 1, 2, 3, ... etc, días nublados por semana en un determinado lugar, con ellos calcule la distribución de probabilidades

 

x

P(x)

F(x)

0

0.05

0.05

1

0.15

0.20

2

0.25

0.45

3

0.20

0.65

4

0.15

0.80

5

0.10

0.90

6

0.08

0.98

7

0.02

1.00

Total

1.0

 

 

 

Si se tiene una variable aleatoria continua, la figura presenta el histograma de 85 años de registro de caudales de crecientes (máximos instantáneos) en el río Magdalena, agrupados en 9 intervalos de clase.

 

x

P(x)

F(x)

1

0.05

0.05

2

0.10

0.15

3

0.15

0.30

4

0.20

0.50

5

0.10

0.60

6

0.10

0.70

7

0.15

0.85

8

0.10

0.95

9

0.05

1.00

Total

1.00

 

 

 

Cuando el número de observaciones se incrementa, el tamaño de los intervalos decrece y se puede tener algo sí

 

 

donde f(x) es la llamada función de densidad de probabilidades y tiene las siguientes características

 

i)         

ii)        

iii)       

 

Lo que implica que las probabilidades se definen sólo como ÁREAS bajo la función de densidad de probabilidad (FDP) entre límites finitos.

 

1.1         MOMENTOS DE LAS DISTRIBUCIONES

 

Las propiedades de las distribuciones pueden ser definidas completamente en términos de los momentos.  Los momentos en estadística son similares a los momentos en física (rotación respecto al origen)

 

 para la variable continua

 

 para la variable discreta

 

o respecto a la media (eje de rotación diferente al origen)

 

 para la variable continua

 

 para la variable discreta

 

 

1.2         PARÁMETROS ESTADÍSTICOS

 

Los estadísticos extraen información de una muestra, indicando las características de la población.  Los principales estadísticos son los momentos de primer, segundo y tercer orden correspondiente a la media, varianza, y asimetría respectivamente.

 

1.2.1      Media m: 

es el valor esperado de la variable misma .  Primer momento respecto a la origen.  Muestra la tendencia central de la distribución

 

el valor estimado de la media a partir de la muestra es

1.2.2     Varianza s²:

 mide la variabilidad de los datos. Es el segundo momento respecto a la media.

 

el valor estimado de la varianza a partir de la muestra es

en el cual el divisor es n-1 en lugar de n para asegurar que la estadística de la muestra no sea sesgada, es decir,  que no tenga una tendencia, en promedio, a ser mayor o menor que el valor verdadero.  Las unidades de la varianza son la media al cuadrado, la desviación estándar  s es una medida de la variabilidad que tiene las mismas dimensiones que la media y simplemente es la raíz cuadrada de la varianza, se estima por s.  El significado de la desviación estándar se ilustra en la siguiente figura

 

Efectos de la función de densidad de probabilidad causados por cambios en la desviación estándar.

 

Coeficiente de variación  es una medida adimensional de la variabilidad su estimado es 

 

 

1.2.3      Coeficiente de asimetría g

la distribución de los valores de una distribución alrededor de la media se mide por la asimetría.  Se obtiene a partir del tercer momento alrededor de la media, dividiéndolo por el cubo de la desviación estándar para que sea adimensional.

 

      tercer momento respecto a la media

 

Un estimativo del coeficiente de asimetría está dado por

 

 

Ejemplo

 

Encontrar el valor medio de la precipitación si se tiene

 

Intervalo (mm)

Xi medio

Frecuencia absoluta

Frecuencia relativa

x f(x)

100

110

105

10

0.1

10.5

110

120

115

16

0.16

18.4

120

130

125

9

0.09

11.25

130

140

135

10

0.1

13.5

140

150

145

20

0.2

29

150

160

155

15

0.15

23.25

160

170

165

20

0.2

33

 

 

 

Total=100

 

 = S138.9

 

 

2           ANALISIS DE FRECUENCIA

 

El análisis de frecuencia es una herramienta utilizada para, predecir el comportamiento futuro de los caudales en un sitio de interés, a partir de la información histórica de caudales.  Es un método basado en procedimientos estadísticos que permite calcular la magnitud del caudal asociado a un período de retorno.  Su confiabilidad depende de la longitud y calidad de la serie histórica, además de la incertidumbre propia de la distribución de probabilidades seleccionada.  Cuando se pretende realizar extrapolaciones, período de retorno mayor que la longitud de la serie disponible, el error relativo asociado a la distribución de probabilidades utilizada es más importante, mientras que en interpolaciones la incertidumbre está asociada principalmente a la calidad de los datos a modelar; en ambos casos la incertidumbre es alta dependiendo de la cantidad de datos disponibles (Ashkar, et al. 1994).  La extrapolación de frecuencias extremas en una distribución empírica de crecientes es extremadamente riesgosa (Garcon, 1994).

 

Para determinar la magnitud de eventos extremos cuando la distribución de probabilidades no es una función fácilmente invertibles se requiere conocer la variación de la variable respecto a la media.  Chow en 1951 propusó determinar esta variación a partir de un factor de frecuencia KT que puede ser expresado:

 

 

y se puede estimar a partir de los datos

 

 

Para una distribución dada, puede determinarse una relación entre K y el período de retorno Tr.  Esta relación puede expresarse en términos matemáticos o por medio del uso de una tabla.

 

El análisis de frecuencia consiste en determinar los parámetros de las distribuciones de probabilidad y determinar con el factor de frecuencia la magnitud del evento para un período de retorno dado.

 

A continuación se describen las principales distribuciones de probabilidad utilizadas en hidrología, la forma de estimar sus parámetros, el factor de frecuencia y los límites de confianza.  Estos últimos son indicadores de que tanta incertidumbre se tiene con las extrapolaciones, puesto que determinar el rango de valores donde realmente estaría la variables, si el rango es muy grande la incertidumbre es muy alta y si es pequeño, por el contrario, habrá mucha confianza en el valor estimado.

 

 

3   DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLES CONTINUAS

 

3.1         DISTRIBUCION NORMAL

 

La distribución normal es una distribución simétrica en forma de campana, también conocida como Campana de Gauss.  Aunque muchas veces no se ajusta a los datos hidrológicos tiene amplia aplicación por ejemplo a los datos transformados que siguen la distribución normal.

 

3.1.1      Función de densidad:

 

La función de densidad está dada por

 

Los dos parámetros de la distribución son la media m y desviación estándar s para los cuales  (media) y s (desviación estándar) son derivados de los datos.

 

3.1.2      Estimación de parámetros:

 

 

 

3.1.3      Factor de frecuencia:

 

1.      Si se trabaja con los X sin transformar el K se calcula como

 

 

este factor es el mismo de la variable normal estándar 

 

3.1.4      Limites de confianza:

 

 

donde a es el nivel de probabilidad es el cuantil de la distribución normal estandarizada para una probabilidad acumulada de 1-a y Se es el error estándar

 

 

3.2         DISTRIBUCIÓN LOGNORMAL DE DOS PARÁMETROS

 

Si los logaritmos Y de una variable aleatoria X se distribuyen normalmente se dice que X se distribuye normalmente.

 

Esta distribución es muy usada para el calculo de valores extremos por ejemplo Qmax, Qmínimos, Pmax, Pmínima (excelentes resultados en Antioquia).  Tiene la ventaja que X>0 y que la transformación Log tiende a reducir la asimetría positiva ya que al sacar logaritmos se reducen en mayor proporción los datos mayores que los menores.

 

Limitaciones: tiene solamente dos parámetros, y requiere que los logaritmos de la variables estén centrados en la media

 

3.2.1      Función de densidad:

 

 

y = ln x

donde,
my : media de los logaritmos  de la población (parámetro escalar), estimado             sy : Desviación estándar de los logaritmos de la población, estimado sy.

 

3.2.2      Estimación de parámetros:

 

 

 

3.2.3      Factor de frecuencia:

 

Puede trabajarse en el campo original y en el campo transformado.

 

2.      Campo transformado: Si se trabaja en el campo transformado se trabaja con la media y la desviación estándar de los logaritmos, así:

 

Ln(XTr) = xTr+KSy

de donde,

XTr = eln (xTr)

 

con K con variable normal estandarizada para el Tr dado, xy media de los logaritmos  y Sy es la desviación estándar de los logaritmos.

 

 

3.      Campo original: Si se trabaja con los X sin transformar el K se calcula como

 

 

 

 

K es la variable normal estandarizada para el Tr dado,  es el coeficiente de variación, x media de los datos originales y s desviación estándar de los datos originales.

 

3.2.4      Limites de confianza:

 

En el campo transformado.

 

 

 

en donde, n numero de datos, Se error estándar, KT variable normal estandarizada.

 

EJEMPLO: En un río se tienen 30 años de registros de Qmáximos instantáneos anuales con x= 15 m3/s, S = 5 m3/s (media y desviación estándar para los datos originales).  xy=2.655, sy = 0.324 (media y desviación estándar de los datos transformados). Encontrar el caudal para un periodo de retorno de 100 años y los limites de confianza para un a = 5%. Calcular la probabilidad de que un caudal de 42.5 m3/s no sea igualado o excedido P(Q £ 4.25).

 

Solución:

 

n=30

x= 15 m3/s                   xy=2.655

s = 5 m3/s                    sy = 0.324

 

En el campo original

 

 

= 5/15 = 0.33

 

K = F-1(1-1/Tr) = F-1(1-1/100) = F-1(0.99)

 

de la tabla de la normal se obtiene KT=2.33

 

 

KT = 3.06

 

 

QTr = 15 + 5 * 3.028

QTr = 30.14 m3/s

 

En el campo transformado se tiene que:

 

LnQTr100 = 2.655 + 2.33*0.324

 

LnQTr100 = 3.40992

 

QTr100  = Exp (3.40992)

 

Q Tr100 = 30.26 m3/s

 

Limites de confianza

 

Ln (QTr) ± t(1-a) Se

 

 

d = 1.93

 

 

t(1-a) = t(0.95) = 1.645 (Leído de la tabla de la normal)

 

Ln(30.28) ± (1.645 ) (0.11)

 

3.41 ± 0.18095

[3.22905               3.59095]

[e3.22905                   e3.59095] 

[25.26                    36.29]                  Intervalos de confianza para QTr100

 

b) Calcular la probabilidad de que un caudal de 45 m3/s no se igualado o excedido P(Q£ 4.25).

 

Ln(42.5) = 3.75

 

t = (3.75 - 2.655)/0.324

 

F(3.38) = 0.9996   Leído de la tabla de la normal

 

P(Q£ 4.25) = 99.9%

 

3.3         DISTRIBUCION GUMBEL O EXTREMA TIPO I

 

Una familia importante de distribuciones usadas en el análisis de frecuencia hidrológico es la distribución general de valores extremos, la cual ha sido ampliamente utilizada para representar el comportamiento de crecientes y sequías (máximos y mínimos).

 

3.3.1      Función de densidad:

 

 

 

En donde a y b son los parámetros de la distribución.

 

 

3.3.2      Estimación de parámetros

 

 

donde  son la media y la desviación estándar estimadas con la muestra.

 

3.3.3      Factor de frecuencia:

 

 

Donde Tr es el periodo de retorno.  Para la distribución Gumbel se tiene que el caudal para un período de retorno de 2.33 años es igual a la media de los caudales máximos.

 

3.3.4      Limites de confianza

 

Xt ± t(1-a) Se

 

 

 

KT es el factor de frecuencia y t(1-a) es la variable normal estandarizada para una probabilidad de no excedencia de 1-a.

 

EJEMPLO: Para el ejemplo anterior encontrar el Q de 100 años de periodo de retorno y los intervalos de confianza. x= 15 m3/s, s = 5 m3/s

 

QTr100 = x + KT s

 

 

KT = 3.14

 

QTr100 = 15 + 3.14*5

QTr100 = 30.7 m3/s

 

Intervalos de confianza

 

t(1-a) = t(0.95) = 1.645 (Leído de la tabla de la normal)

 

 

d = 3.93

 

 

Xt ± t(1-a) Se

 

30.7 m3/s ± (1.64) (3.58)

 

[24.83 m3/s               36.58 m3/s]                    Intervalo de confianza para QTr100

 

 

3.4         DISTRIBUCION GAMMA DE TRES PARÁMETROS O PEARSON TIPO 3

 

Esta distribución ha sido una de las mas utilizadas en hidrología.  Como la mayoría de las variables hidrológicas son sesgadas, la función Gamma se utiliza para ajustar la distribución de frecuencia de variables tales como crecientes máximas anuales, Caudales mínimos, Volúmenes de flujo anuales y estacionales, valores de precipitaciones extremas y volúmenes de lluvia de corta duración.  La función de distribución Gamma tiene dos o tres parámetros.

 

3.4.1      Función de densidad:

 

 

donde,

 

x0 £ x < a para a > 0

a < x £ x0 para a < 0

 

a y b son los parámetros de escala y forma, respectivamente , y x0 es el parámetro de localización.

 

 

3.4.2      Estimación de parámetros:

 

 

 

Cs es el coeficiente de asimetría,  son la media y la desviación estándar de la muestra respectivamente.

 

3.4.3      Factor de frecuencia:

 

donde z es la variable normal estandarizada 

 

Este valor de K se encuentra tabulado de acuerdo al valor de Cs calculado con la muestra.

 

3.4.4      Intervalos de confianza:

 

Xt ± t(1-a) Se

 

 

Donde S es la desviación estándar de la muestra, n es el número de datos y d se encuentra tabulado en función de Cs y Tr.

 

EJEMPLO: Se tiene una estación con 30 años de registros de caudales máximos instantáneos con Media de 4144 pie3/s y desviación estándar de 3311 pie3/s.  Si el coeficiente de asimetría de los caudales es de 1.981 pie3/s cual es caudal para un periodo de retorno de 100 años y su intervalo de confianza.

 

QTr100 = X+ SK

 

K  es F(1.981, 100)                de tablas se obtiene K=3.595              (1.9,100) = 3.553

                                                                                                          (2.0,100) = 3.605

 

 

QTr100 = 4144+ (3.595) (3311)

QTr100 = 16050 pie3/s

 

Intervalos de confianza

 

Xt ± t(1-a) Se

 

 

 

d = F(1.981,100)                    de tablas se obtiene d =8.4922            (1.9,100) = 8.2196

                                                                                                          (2.0,100) = 8.5562

 

 

Se = 5133.56 pie3/s

 

t(1-a) = t(0.95) = 1.645 (Leído de la tabla de la normal)

 

16050 ± (5133.56) (1.645)

 

[7605.29 pie3/s               24494.71pie3/s]                   Intervalos de confianza para QTr100

 

 

 

3.5         DISTRIBUCIÓN LOG GAMMA O LOGPEARSON DE 3 PARÁMETROS

 

 

Si los logaritmos Y de una variable aleatoria X se ajustan a una distribución Pearson tipo III, se dice que la variable aleatoria X se ajusta a una distribución Log Pearson Tipo III.  Esta distribución es ampliamente usada en el mundo para el análisis de frecuencia de Caudales máximos.  Esta se trabaja igual que para la Pearson Tipo III pero con Xy y Sy como la media y desviación estándar de los logaritmos de la variable original X.

 

3.5.1      Función de densidad:

 

 

donde,

 

y0 £ y < a para a > 0

a £ y £ y0 para a < 0

 

a y b son los parámetros de escala y forma, respectivamente , y y0 es el parámetro de localización.

 

 

3.5.2      Estimación de parámetros:

 

 

 

Cs es el coeficiente de asimetría,  son la media y la desviación estándar de los logaritmos de la muestra respectivamente.

 

3.5.3      Factor de frecuencia:

 

 

donde z es la variable normal estandarizada 

 

Este valor de K se encuentra tabulado de acuerdo al valor de Cs calculado con la muestra.

 

3.5.4      Intervalos de confianza:

 

Xt ± t(1-a) Se

 

 

Donde Sy es la desviación estándar de los logaritmos de la muestra, n es el número de datos y d se encuentra tabulado en función de Cs y Tr.

 

4           AJUSTE DE DISTRIBUCIONES

 

Para la modelación de caudales máximos se utilizan, entre otras, las distribuciones Log - Normal, Gumbel y Log-Gumbel principalmente.  Para seleccionar la distribución de probabilidades de la serie histórica se deben tener en cuenta algunas consideraciones.

 

 

 

 

 

 

 

Cuando la información es adecuada el análisis de frecuencia es la metodología más recomendable para la evaluación de eventos extremos, ya que la estimación depende solamente de los caudales máximos anuales que han ocurrido en la cuenca y no da cuenta de los procesos de transformación de la precipitación en escorrentía.  Obviamente tiene algunas limitaciones relacionadas con el comportamiento de la serie histórica y con el tamaño y calidad de los datos de la muestra.

 

 

 

 

El ajuste a distribuciones se puede hacer de dos técnicas, con el factor de frecuencia como se refirió en el numeral 2 o hallando la distribución empírica de los datos muestrales, por el método de Plotting Position.

 

 

4.1         Plotting Position

 

Trabaja con la probabilidad de excedencia asignada a cada valor de la muestra.  Se han propuesto numerosos métodos empíricos.  Si n es el total de valores y m es el rango de un valor en una lista ordenada de mayor a menor (m=1 para el valor máximo) la probabilidad de excedencia se puede obtener por medio de las siguientes expresiones

 

California                    

 

Weibull                       

 

Hazen                         

 

La expresión más utilizada es la Weibull.  Con las anteriores expresiones se halla lo que se conoce como la distribución empírica de una muestra, esta luego se puede ajustar a una de las distribuciones teóricas presentadas anteriormente.  Los resultados pueden ser dibujados en el papel de probabilidad; este es diseñado para que los datos se ajusten a una línea recta y se puedan comparar los datos muestrales con la distribución teórica (línea recta).

 

4.2         Pruebas de Ajuste

 

Para determinar que tan adecuado es el ajuste de los datos a una distribución de probabilidades se han propuesto una serie de pruebas estadísticas que determinan si es adecuado el ajuste.  Estos son análisis estadísticos y como tal se deben entender, es decir, no se puede ignorar el significado físico de los ajustes.

 

4.2.1      Prueba Smirnov Kolmogorov

 

El estadístico Smirnov Kolmogorov D considera la desviación de la función de distribución de probabilidades de la muestra P(x) de la función de probabilidades teórica, escogida Po(x) tal que .

 

La prueba requiere que el valor Dn calculado con la expresión anterior sea menor que el valor tabulado Dn para un nivel de probabilidad requerido.

 

Esta prueba es fácil de realizar y comprende las siguientes etapas:

 

4.2.2      Prueba Chi Cuadrado

 

Una medida de las discrepancia entre las frecuencias observadas (fo) y las frecuencias calculadas (fc) por medio de una distribución teórica esta dada por el estadístico χ²

 en donde

si el estadístico χ²=0 significa que las distribuciones teórica y empírica ajustan exactamente, mientras que si el estadístico χ²>0, ellas difieren.  La distribución del estadístico χ² se puede asimilar a una distribución Chi-cuadrado con (k-n-1) grados de libertad, donde k es el número de intervalos y n es el número de los parámetros de la distribución teórica.  La función χ² se encuentra tabulada.  Supongase que una hipótesis Ho es aceptar que una distribución empírica se ajusta a una distribución Normal.  Si el valor calculado de χ² por la ecuación anterior es mayor que algún valor crítico  de χ², con niveles de significancia a de 0.05 y 0.01 (el nivel de confianza es 1-a) se puede decir que las frecuencias observadas difieren significativamente de  las frecuencias esperadas (o calculadas) y entonces la hipótesis Ho se rechaza, si ocurre lo contrario entonces se acepta.

 

[1] Aunque no existe una definición generalmente aceptada, se puede entender como valores extremos, muy superiores a los demás registrados (Ashkar, et al. 1994).


__.__