curso doctorado. bienio 2008/10 econom¶‡a financiera cuantitativa y …€¦ · ·...
TRANSCRIPT
Curso Doctorado. Bienio 2008/10
Economıa Financiera Cuantitativa y
Actuarial. Modelizacion de Riesgo e
Incertidumbre en Seguros y Auditorıa
Contable
Emilio Gomez Deniz
27 de abril de 2009
1
Indice general
Revistas, congresos y paginas web de interes 2
1. Introduccion a la matematica actuarial 4
2. Distribuciones de probabilidad 6
2.1. Distribuciones de tipo discreto . . . . . . . . . . . . . . . . . . . . . . 6
2.2. Distribuciones de tipo continuo . . . . . . . . . . . . . . . . . . . . . . 11
3. Elementos basicos de matematica actuarial 16
3.1. Seguros generales. Aspectos estadısticos . . . . . . . . . . . . . . . . . 16
3.2. Modelo de riesgo colectivo . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.1. Resultados generales . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.2. Formula de recursion de Panjer . . . . . . . . . . . . . . . . . . 23
3.3. Principios de calculo de primas . . . . . . . . . . . . . . . . . . . . . . 26
4. La teorıa de la credibilidad. Distintas aproximaciones 33
4.1. Modelo de Buhlmann de distribucion libre . . . . . . . . . . . . . . . . 34
4.2. Credibilidad e inferencia bayesiana . . . . . . . . . . . . . . . . . . . . 36
4.3. Modelo de Jewell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5. Sistema de tarificacion Bonus–Malus 42
6. Reaseguros 46
6.1. Reaseguro proporcional . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.2. Excess loss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.3. Reaseguro stop loss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
7. Teorıa de la ruina 51
7.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
vii
7.2. El problema de la ruina . . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.2.1. Ruina con horizonte finito e infinito . . . . . . . . . . . . . . . 52
7.3. La probabilidad de supervivencia . . . . . . . . . . . . . . . . . . . . . 52
7.4. Coeficiente de ajuste y desigualdad de Lundberg . . . . . . . . . . . . 56
Ejercicios propuestos 58
Apendice 64
Bibliografıa 66
viii
ix
Emilio Gomez-Deniz
e-mail: [email protected]
web: http://www.personales.ulpgc.es/egomez.dmc
Tutorıas: Despacho D-4.11.
Martes de 8:30 a 14:30 horas
Revistas, congresos y paginas
web de interes
Las principales aportaciones a la Estadıstica Actuarial estan recogidas en las siguientes
publicaciones:
Insurance: Mathematics and Economics.
Scandinavian Actuarial Journal.
Astin Bulletin. (http://www.casact.org/library/ASTIN/)
Journal of Risk and Insurance.
Geneva Papers.
North American Actuarial Journal.
Actuarial Research Clearing House.
British Actuarial Journal
Actas de los Congresos Internacionales de Actuarios.
• Casualty Actuarial Society. (http://www.casact.org/)
Los principales Congresos internacionales en la materia son:
International Congress on Insurance:Mathematics and Economics.
(www.smeal.psu.edu/rmrc/imeCongress/index.htm)
Actuarial Research Conference.
Congresos ASTIN.
2
Algunas paginas web de interes son:
http://www.actuaries.org/
http://www.casact.org/
http://www.afshapiro.com/Buhlmann/index Buhlmann.htm.
http://www.soa.org/
http://www.inese.es/
3
Capıtulo 1
Introduccion a la matematica
actuarial
La matematica actuarial se ocupa del estudio cuantitativo de las operaciones de se-
guros y financieras en general, con el fin de optimizar las decisiones sobre las magni-
tudes que intervienen en ellas, teniendo en cuenta que dichas operaciones se llevan a
cabo por un ente asegurador o financiero que desarrolla su actividad en un entorno
economico–social.
Se ocupa esta disciplina, en su apartado de seguros, de:
Calculo de primas, reservas, etc. en los seguros vida.
Tarificacion y reservas tecnicas en los seguros no vida (generales).
Determinacion de las magnitudes de estabilidad del ente asegurador (reaseguros,
coaseguros) y el analisis de su solvencia (Teorıa de la Ruina).
etc.
Las provisiones tecnicas constituyen un cumulo de ahorro disponible entre el cobro
de las primas y el momento de hacer frente a la siniestralidad.
Reaseguro y coaseguro. El asegurador debe seguir en sus operaciones la seguridad
de no experimentar jamas una perdida considerable y de soportar solo una parte de
las perdidas totales, lo que se puede lograr mediante la division de los riesgos. Existe
un primer recurso que el coaseguro y un segundo que es el reaseguro.
Coaseguro. El riesgo se distribuye entre varios aseguradores, quedando cada uno
de estos vinculado directamente con el asegurado; generalmente, uno de ellos,
4
el de mayor partıcipe, asume la direccion del negocio, el cual se entiende con el
asegurado y con los otros coaseguradores.
Reaseguro. El asegurador acepta un riesgo que sobrepasa de su capacidad, cedi-
endo el exceso a otro asegurador (reasegurador); el vınculo jurıdico entre estos
dos es totalmente independiente del que media entre el asegurador y el asegu-
rado; frente a este el unico responsable es el asegurador.
El sector asegurador se diferencia de otros sectores en que, para acometer su
actividad, el capital fijo que necesita es relativamente pequeno y su capital circulante
se lo prestan los propios clientes a cuenta del producto que han de empezar a fabricar
en ese momento (la seguridad), y que cobra por adelantado. De ahı que sus necesidades
de financiacion sean pequenas. Por otro lado, el producto que se comercializa, la
seguridad, se garantiza a todos los clientes, aunque la entrega solo se efectua a una
parte de la clientela. El tiempo juega ademas a favor del asegurador, ya que el coste
correspondiente (la siniestralidad) se reparte posponiendose y dando lugar, entretanto,
a un cumulo de ahorro que forman las provisiones tecnicas. Luego, desde un punto de
vista financiero, el tomador de una poliza de seguros es el prestamista que proporciona
el credito al asegurador para que fabrique el producto (la seguridad), conviritendose el
asegurador en que un mero colocador de los fondos que no se consumen periodicamente
de entre todos aquellos que le han sido prestados.
5
Capıtulo 2
Distribuciones de
probabilidad
En este tema nos ocuparemos de las principales distribuciones de probabilidad de tipo
discreto y continuo utilizadas en estadıstica actuarial.
2.1. Distribuciones de tipo discreto
Este tipo de distribuciones se usan principalmente para modelizar el numero de recla-
maciones de una cartera de seguros. Estudiaremos diversas distribuciones que pode-
mos clasificar como distribuciones clasicas, sistemas de distribuciones y distribuciones
compuestas.
Distribucion binomial
La funcion de probabilidad es:
Pr(X = x) =(
n
x
)px(1− p)n−x, si x = 0, 1, . . . , n.
Los valores que toma la variable estan comprendidos entre 0 y n. La funcion
generatriz de probabilidad es,
PX(s) = E(sX) = (1− p + ps)n,
La media y la varianza son:
E(X) = np,
6
Var(X) = np(1− p).
Se observa que E(X) > Var(X) y por tanto la variable cumple la propiedad de
sub-dispersion (media mayor que varianza).
Distribucion de Poisson
La distribucion de Poisson surge como lımite de la distribucion binomial cuando el
numero de ensayos es grande y la probabilidad de exito pequena.
Se dice que una variable aleatoria X sigue una distribucion de Poisson y se repre-
senta por X ∼ P(λ), si su funcion de densidad viene dada por:
Pr(X = x) =e−λλx
x!, x = 0, 1, . . .
siendo λ > 0.
La funcion generatriz de X se obtiene del siguiente modo:
PX(s) = E(sX) =∞∑
n=0
sn e−λλn
n!
= e−λ∞∑
n=0
(λs)n
n!= eλ(s−1).
En consecuencia, la funcion caracterıstica toma la forma,
ϕX(t) = E(eitX) = PX(eit) = exp[λ(eit − 1)].
Se verifica:
E(X) = Var(X) = λ,
La distribucion de Poisson es reproductiva respecto del parametro λ, es decir la
suma de variables de Poisson independientes es de nuevo una variable aleatoria de
Poisson.
Teorema 2.1 Sean Xi ∼ P(λi), i = 1, 2, . . . , n variables aleatorias independientes
tipo Poisson. Entonces la variables aleatoria suma X1 +X2 + . . .+Xn es nuevamente
tipo Poisson, es decir,
X1 + X2 + . . . + Xn ∼ P(λ1 + λ2 + . . . + λn).
7
Demostracion: Mediante funciones generatrices:
PX1+...+Xn(s) = PX1(s) · · ·PXn(s) = e(λ1+...+λn)(s−1)
y por tanto X1 + . . . + Xn ∼ P(λ1 + . . . + λn).
Distribucion binomial negativa
La variable aleatoria binomial negativa es una generalizacion de la distribucion ge-
ometrica. Una variable aleatoria X sigue una distribucion binomial negativa si la
funcion de probabilidad viene dada por,
Pr(X = k) =(
k + r − 1k
)pr(1− p)k, k = 0, 1, 2, . . .
donde 0 < p < 1, r > 0, y representaremos X ∼ BN (r, p). Una segunda parametrizacion
muy utilizada es,
Pr(X = k) =(
k + r − 1k
)(1
1 + β
)r (β
1 + β
)k
, k = 0, 1, 2, . . .
donde ahora β > 0 y r > 0. En este ultimo caso representaremos X ∼ BN (r, p =
1/(1 + β)).
La funcion generatriz es:
PX(s) = E(sX) =pr
[1− (1− p)s]r, si |s| < 1/(1− p).
La media y la varianza son respectivamente:
E(X) =r(1− p)
p,
Var(X) =r(1− p)
p2.
Si X1 ∼ BN (r1, p), . . . , Xn ∼ BN (rn, p) son variables aleatorias independientes,
entonces X1 + . . . + Xn es de nuevo binomial negativa con parametros r1 + . . . + rn
y p.
Distribucion geometrica o de Pascal
Se dice que una variable aleatoria X sigue una distribucion geometrica o de Pascal si
la funcion de probabilidad viene dada por,
Pr(X = k) = p(1− p)k, k = 0, 1, 2, . . .
8
donde 0 < p < 1, y representaremos X ∼ Ge(p). Una segunda parametrizacion muy
utilizada es,
Pr(X = k) =1
1 + β
(β
1 + β
)k
, k = 0, 1, 2, . . .
donde ahora β > 0. En este caso X ∼ Ge(p = 1/(1 + β)).
La distribucion geometrica es un caso particular de la distribucion binomial neg-
ativa, que se obtiene cuando r = 1.
La funcion generatriz es:
PX(s) = E(sX) =∞∑
k=0
skp(1− p)k =p
1− (1− p)s, si |s| < 1/(1− p),
y la funcion caracterıstica:
ϕX(t) = E(eitX) = PX(eit) =p
1− (1− p)eit.
Se deduce que:
E(X) =1− p
p,
Var(X) =1− p
p2.
Distribucion logarıtmica
Una variable aleatoria X sigue una distribucion logarıtmica si su funcion de proba-
bilidad viene dada por,
Pr(X = k) = − 1log(1− θ)
· θk
k, k = 1, 2, . . .
donde 0 < θ < 1.
La distribucion logarıtmica no tiene probabilidad en 0. Las probabilidades Pr(X =
k) son siempre decrecientes en k. La funcion generatriz viene dada por,
PX(s) = E(sX) =log(1− θs)log(1− θ)
,
mientras que la funcion caracterıstica es:
ϕX(t) = PX(eit) =log(1− θeit)log(1− θ)
.
La media y la varianza de la distribucion logarıtmica son:
E(X) =aθ
1− θ,
Var(X) =aθ(1− aθ)(1− θ)2
= µ
(1
1− θ− µ
),
donde a = −1/ log(1− θ) y µ = E(X).
9
Distribuciones compuestas
Las distribuciones compuestas son una clase de distribuciones muy amplia que permite
modelizar una gran variedad de situaciones en estadıstica actuarial.
Definicion 2.1 Se dice que una variable aleatoria S se distribuye segun una distribu-
cion compuesta, si la funcion generatriz de momentos se puede escribir como,
PS(z) = PN [PX(z)], (2.1)
donde PN y PX son dos funciones generatrices.
A la variable aleatoria N con funcion generatriz PN (·) se la llama distribucion pri-
maria mientras que a la variable aleatoria X con funcion generatriz PX(·) se la llama
distribucion secundaria. Las distribuciones compuestas surgen de un modo natural
como la distribucion de la variable aleatoria,
SN = X1 + . . . + XN .
La funcion de probabilidad de este tipo de variables se puede obtener como:
gk =∞∑
n=0
pnf∗nk ,
donde gk = Pr(S = k), pn = Pr(N = n), fn = Pr(Xi = n) y f∗nk , k = 0, 1, 2, . . . es la
convolucion n-esima de Xi. Veamos un ejemplo de distribucion compuesta.
Ejemplo 2.1 Consideremos una distribucion compuesta S cuya distribucion pri-
maria es de tipo Poisson N ∼ P(λ), y la distribucion secundaria es de tipo log-
arıtmico. Probar que la distribucion compuesta S es una binomial negativa BN (r, p)
donde r = −λ/ ln(1− θ) y p = 1− θ.
Solucion: Puesto que PN (z) = exp{λ(z − 1)}, usando (2.1) tenemos que,
PS(z) = exp{λ[PX(z)− 1]}= exp
{λ
[ln(1− θz)ln(1− θ)
− 1]}
= exp{
λ
ln(1− θ)ln
(1− θz
1− θ
)}
=[
1− θ
1− (1− (1− θ))z
]−λ/ ln(1−θ)
que coincide con la funcion generatriz de una binomial negativa con los parametros
antes senalados.
10
♦Los momentos de una distribucion compuesta se obtienen facilmente por medio de
la funcion generatriz, como probaremos mas adelante. La media y la varianza vienen
dadas por:
E(S) = E(N)E(X),
Var(S) = E(N)Var(X) + E2(X)Var(N).
2.2. Distribuciones de tipo continuo
Continuando con los modelos de distribuciones de probabilidad, pasamos al estudio de
las principales distribuciones de tipo continuo. Los actuarios usan las distribuciones
de tipo continuo para modelizar diversos fenomenos aleatorios, como por ejemplo la
distribucion de un conjunto de datos de perdidas o la distribucion de supervivencia
de un individuo.
Distribucion normal
Se dice que una variable aleatoria X sigue una distribucion normal de parametros µ
y σ2, y se escribe X ∼ N (µ, σ2), si su funcion de densidad viene dada por:
f(x) =1
σ√
2πexp
{−1
2
(x− µ
σ
)2}
, −∞ < x < ∞, (2.2)
donde µ y σ2 son constantes que representan respectivamente la media y la varianza.
La funcion de densidad (2.2) es simetrica respecto de µ y de tipo campaniforme
(de ahı el nombre de campana de Gauss), lo que hace que µ sea ademas la mediana y
la moda de la distribucion.
Se denomina distribucion normal tipificada o estandarizada a una distribucion nor-
mal con media 0 y desviacion tıpica 1. La distribucion normal tipificada se representa
por Z ∼ N (0, 1), y su funcion de densidad es:
φ(z) =1√2π
e−z2/2, −∞ < z < ∞.
La importancia de la normal tipificada radica en que cualquier distribucion normal
se puede reducir a una tipificada.
11
Distribucion log-normal
La distribucion log-normal es uno de los modelos mas utilizados para ajustar datos
relativos al coste de un siniestro. Se dice que una variable aleatoria X sigue una
distribucion log-normal si su logaritmo es normal, es decir si:
log(X) ∼ N (µ, σ2).
Si X sigue una distribucion log-normal se representa por X ∼ LN (µ, σ2).
Las funciones de distribucion y de densidad de una distribucion log-normal X ∼LN (µ, σ2) vienen dadas, respectivamente, por:
F (x) = Φ(
log x− µ
σ
), x > 0,
f(x) =1
xσ√
2πexp
{−1
2
(log x− µ
σ
)2}
, x > 0.
Los momentos de una distribucion log-normal vienen dados por:
E(Xk) = exp(
kµ +k2σ2
2
), k = 1, 2, . . .
La media y la varianza son, respectivamente:
E(X) = exp(
µ +σ2
2
),
Var(X) = exp(2µ + σ2)[exp(σ2)− 1].
Distribucion gamma
La distribucion gamma es una de las distribuciones mas utilizadas en estadıstica
actuarial cuando se dispone de un conjunto de datos positivos, unimodales y con
asimetrıa positiva.
Una variable aleatoria X sigue una distribucion gamma de parametros a y b, y se
representa por X ∼ G(a, b), si su funcion de densidad viene dada por:
f(x) =ba
Γ(a)xa−1e−bxsi x > 0
donde a, b son numeros reales positivos. Si a = 1 se obtiene la distribucion exponencial.
Si X ∼ G(α, σ), la funcion generatriz de momentos es,
MX(t) = E(etX) =(
b
b + t
)a
, b > t.
12
Los momentos de la distribucion gamma son,
E(Xr) =Γ(a + r)brΓ(a)
, r > −a,
de donde se deducen la media y la varianza,
E(X) =a
b,
Var(X) =a
b2.
La moda de la distribucion gamma es a−1b , siempre que a ≥ 1.
Una propiedad importante de la distribucion binomial negativa es que puede
obtenerse como una mezcla de una distribucion de Poisson, suponiendo que la media
no se mantiene constante. Supongamos que el numero de accidentes N de una cartera
de clientes sigue una distribucion de Poisson N con media λ. Supongamos que la me-
dia λ muestra la variabilidad de la cartera representada con una funcion de densidad
continua de tipo gamma, de modo que podemos establecer el modelo,
N |λ ∼ P(λ),
λ ∼ G(a, b).
Entonces, la distribucion incondicional N del numero de accidentes es de tipo
binomial negativa, de modo que,
N ∼ BN (α, p = b/(b + 1)).
En efecto, se trata de una mezcla de distribuciones. En este caso fλ(λ) representa
la funcion de densidad de una variable aleatoria gamma. La marginal de N es:
Pr(N = k) =∫ ∞
0
fN |λ(k)fλ(λ)dλ
=∫ ∞
0
e−λλk
k!· ba
Γ(a)λa−1e−bλdλ
=ba
k!Γ(a)
∫ ∞
0
λa+k−1e−(b+1)λdλ
=ba
k!Γ(a)Γ(a + k)
(b + 1)a+k=
(a + k − 1
k
)(b
b + 1
)a (1
b + 1
)k
13
Distribucion beta
La distribucion beta se utiliza en estadıstica para modelizar variables que representan
proporciones. Una variable aleatoria X sigue una distribucion beta de primera especie
si su funcion de densidad viene dada por:
f(x) =1
B(p, q)xp−1(1− x)q−1, 0 < x < 1,
donde p, q > 0 y B(p, q) representa la funcion beta. Representaremos X ∼ Be(p, q).
La funcion beta viene definida por,
B(x, y) =∫ 1
0
tx−1(1− t)y−1dt =Γ(x)Γ(y)Γ(x + y)
,
donde x, y > 0, siendo Γ(·) la funcion gamma. Los dos parametros de los que depende
la funcion de densidad cubren un gran abanico de formas funcionales, lo que hace que
la variable sea enormemente flexible para el ajuste de datos.
Los momentos de la distribucion beta son:
E(Xr) =Γ(p + r)Γ(p + q)Γ(p + q + r)Γ(p)
.
De donde:
E(X) =Γ(p + 1)Γ(p + q)Γ(p + q + 1)Γ(p)
=pΓ(p)Γ(p + q)
(p + q)Γ(p + q)Γ(p)=
p
p + q,
Var(X) =pq
(p + q)2(p + q + 1).
Distribucion inversa Gaussiana
La distribucion inversa Gaussiana o distribucion de Wald en una de las distribuciones
mas utilizadas para ajustar datos relativos al coste de los siniestros.
Una variable aleatoria X sigue una distribucion inversa Gaussiana con parametros
µ y λ y representaremos X ∼ IG(µ, λ), si su funcion de densidad viene dada por,
f(x) =
√λ
2πx3exp
{− λ
2µ2x(x− µ)2
}, x > 0, (2.3)
donde λ, µ > 0.
Se trata de una distribucion asimetrica positiva y unimodal. La funcion de dis-
tribucion puede expresarse en terminos de la funcion de distribucion Φ(·) de una
normal estandar y viene dada por,
F (x) = Φ
(√λ
x
(x
µ− 1
))+ e2λ/µΦ
(−
√λ
x
(x
µ+ 1
)), x > 0.
14
La distribucion inversa Gaussiana es un caso particular de una distribucion mas
general denominada generalizada inversa Gaussiana, cuya funcion de densidad viene
dada por:
f(x) =1
2Kν(µ/λ)µ−νxν−1 exp
{− x
2λ− µ2
2λx
}, x > 0, (2.4)
donde ν ∈ IR, µ, λ > 0 y donde Kν(u) representa la funcion modificada de Bessel de
tercera clase con ındice ν, definida por:
Kν(u) =12
∫ ∞
0
xν−1 exp{−u
2
(x +
1x
)}dx.
Si una variable aleatoria X sigue una distribucion generalizada inversa Gaussiana
escribiremos X ∼ GIG(ν, µ, λ). Utilizando las propiedades:
Kν(u) = K−ν(u),
K1/2(u) =√
π
2ue−u,
es facil probar que (2.3) se obtiene de (2.4) sin mas que hacer ν = −1/2.
La distribucion inversa Gaussiana posee momentos positivos y negativos de todos
los ordenes. La funcion generatriz de momentos viene dada por,
MX(t) = exp
{λ
µ
(1−
√1− 2µ2t
λ
)}, (2.5)
y la funcion caracterıstica,
ϕX(t) = E(eitX) = MX(it) = exp
{λ
µ
(1−
√1− 2iµ2t
λ
)}.
Usando (2.5) se prueba que la media y la varianza son,
E(X) = µ,
Var(X) = µ3/λ.
La moda de (2.3) es,µ
2λ
(√4λ2 + 9µ2 − 3µ
).
15
Capıtulo 3
Elementos basicos de
matematica actuarial
Los seguros se dividen basicamente en vida y no vida, denominados estos ultimos
tambien seguros generales. Son este tipo de seguros de los que nos ocuparemos en
este curso.
3.1. Seguros generales. Aspectos estadısticos
Las principales caracterısticas de los segurso generales son:
1. Son operaciones a corto plazo. La duracion generalmente es anual, renovable
tacitamente, por lo que el tipo de interes no juega un papel tan importante
como en los seguros de vida.
2. Existen muchos factores que influyen en el acaecimiento del hecho que dan
lugar a una gran complejidad en los problemas de tarificacion. Por ejemplo, en
el seguro del automovil existen como factores de riesgo la categorıa y clase del
vehıculo, zona de circulacion, uso al que se destina, datos del conductor, etc.
3. Las indemnizaciones estan en funcion de la cuantıa del dano, del numero de
reclamaciones, o una funcion de ambas cantidades. Estas, a su vez, vienen dadas
por variables aleatorias.
4. Se presentan problemas de infraseguro y sobreseguro cuando no coincide la suma
asegurada con el valor del interes asegurado.
16
5. Las primas cubren el riesgo del perıodo correspondiente y no llevan la compo-
nente de ahorro como en los seguros de vida.
6. Surgen problemas de estabilidad ya que las fluctuaciones en torno a los valores
medios (las primas) son mayores que en los seguros de vida, ya que aquı las
reservas matematicas juegan un importante papel estabilizador.
Uno de los conceptos fundamentales en estadıstica actuarial y que esta ligado a la
estadıstica bayesiana es el de distribuciones y medias condicionadas.
Si X y Θ son variables aleatorias, la media condicional de X dada Θ se denota por
E [X|Θ], que es una funcion de la variable aleatoria Θ, y por lo tanto es una v.a. por
sı misma. Si la media condicional E [X|Θ] y la distribucion marginal de Θ se conocen,
la esperanza incondicional de X se obtiene como
E[X] = EX [EΘ (X|Θ)] ,
que es una regla iterativa para esperanzas y que puede considerarse como una version
de la ley de probabilidad total.
Ejemplo 3.1 Se lanza un dado y entonces se lanza una moneda tantas veces como
puntos se obtuvieron en el dado. Sea X la variable aleatoria que nos da los puntos
obtenidos en el dado e Y la variable aleatoria que nos da el numero de veces que se
obtiene cara al lanzar la moneda. Se pide calcular la esperanza incondicional de Y ,
E[Y ].
Solucion:
E[Y ] = EX {EY [Y |X]} ,
La distribucion condicional de Y dada X es binomial de parametros X y 1/2,
luego:
E[Y |X] =12X.
E[Y ] = E {E [Y |X]} = E
[12X
]=
12E[X] =
12
6∑
i=1
i16
=74.
♦
Teorema 3.1 Sean Θ, X v.a., entonces:
V ar (X) = EΘ [V arX (X|θ)] + V arΘ [EX (X|θ)]
17
Demostracion: Sabemos que E(X) = EΘ [EX (X|θ)]. Luego
E(X2) = Eθ
[EX(X2|θ)] = EΘ
[V ar(X|θ) + E2
X(X|θ)]
= EΘ [V (X|θ)] + EΘ
[E2
X(X|θ)] .
Ahora,
V ar(X) = E(X2)− E2(X) = EΘ [V arX(X|θ)] + EΘ
[E2
X(X|θ)]− E2(X),
y puesto que E2(X) = E2Θ [EX(X|θ)], queda probado el resultado.
Ejemplo 3.2 Si X sigue una distribucion de Poisson de parametro θ y θ se distribuye
segun una ley gamma de parametros a > 0 y b > 0, se pide calcular E(X) y Var(X).
Solucion:
E(X) = E [E(X|θ)] = E(θ) =a
b.
Por otro lado tenemos:
V ar (X) = Eθ [V arX (X|θ)] + V arθ [EX (X|θ)]= E(θ) + Var(θ) =
a
b+
a
b2=
a(b + 1)b2
.
♦
3.2. Modelo de riesgo colectivo
Definicion 3.1 Un modelo de riesgo colectivo representa la siniestralidad total como
la suma S de un numero aleatorio N de cantidades X1, . . . , XN , i.e. S =∑N
i=1 Xi,
donde se asume que Xi son i.i.d. e independientes de N .
Suele denominarseles distribucion primaria y distribucion secundaria a las dis-
tribuciones del numero de siniestros y reclamaciones, respectivamente.
La variable aleatoria S =∑N
i=1 Xi tiene como funcion de distribucion:
F (s) = Pr (S ≤ s) =∞∑
n=0
pn Pr (S ≤ s|N = n)
=∞∑
n=0
pnF ∗n(s),
18
donde F (s) = Pr (S ≤ s) es la funcion de distribucion de las Xjs, pn = Pr(N = n) y
F ∗n(s) es la convolucion n−esima de la funcion de distribucion de X. Por supuesto
que se verifica que la funcion de densidad de probabilidad de S viene dada por
f(s) =∞∑
n=0
pnf∗n(s),
donde f(x) es la funcion de densidad de probabilidad de X.
Si N sigue la distribucion de Poisson el modelo obtenido de denomina modelo de
Poisson compuesto.
Ejemplo 3.3 Sean N la variable aleatoria asociada al numero de reclamaciones con
distribucion de probabilidad
PN (θ) = θne−θ/n!, n = 0, 1, 2, ...
y Xi variables aleatorias asociadas a la cuantıa del i–esimo siniestro, i.i.d. con funcion
de densidad
f(x|λ) = λe−λx, λ ≥ 0.
Suponiendo N independiente de Xi, calcular la funcion de densidad de probabilidad
de la variable aleatoria
S =n∑
i=1
Xi.
Solucion:
f ∗ f(s) =∫ s
0
f(s− x)f(x)dx =∫ s
0
λe−λ(s−x)λe−λxdx = λ2e−λss.
f ∗ (f ∗ f)(s) =∫ s
0
λe−λ(s−x)λ2e−λxxdx =s2
2λ3e−λs.
Por induccion, supongamos cierta que f∗n(s) = λne−λs sn−1
(n− 1)!, entonces
f (∗)(n+1)(x) = f ∗ (f∗n)(s)
=∫ s
0
λe−λ(s−x)λne−λx xn−1
(n− 1)!dx
= λn+1e−λs sn
n!.
Luego, por induccion matematica, tenemos
f(s|θ, λ) =∞∑n
λnsn−1e−λs
(n− 1)!· e−θθn
n!,
mientras que f(0) = e−θ.
19
♦La funcion de densidad anterior puede reescribirse como:
fS(x) = e−(θ+λx)√
λθ/xI1
(2√
λxθ)
, x > 0,
donde:
Iν(x) =∞∑
k=0
(x/2)2k+ν
k!Γ(ν + k + 1), x ∈ IR , ν ∈ IR
es la funcion modificada de Bessel de clase ν.
Ejemplo 3.4 Con los mismos datos del ejemplo anterior calcular FS(x) = Pr (X > x)
para valores de x = 0,1, 0,2, . . . , 10, tomando θ = λ = 1.
Solucion: El resultado puede obtenerse a partir de la expresion:
Pr (X > x) = 1−(
fS(0) +∫ x
0
fS(t)dt
),
que proporciona los valores que aparecen en la tabla 3.1. La grafica de la funcion de
densidad aparece en la figura 3.1
Cuadro 3.1: Probabilidad de la cola. Modelo Poisson compuesto
x 1− FS(x)
0,1 0,59624200
0,2 0,32482000
0,3 0,17102000
0,4 0,08771100
0,5 0,04404980
0,6 0,02174310
0,7 0,01057720
0,8 0,00508150
0,9 0,00241483
1,0 0,00113662
♦
Ejemplo 3.5 Calcular E (S|θ, λ).
20
0 5 10
0
0.2
0.4
x
f S(x
)
Figura 3.1: Funcion de densidad del modelo de Poisson compuesto
Solucion:
E (S|θ, λ) =∫
Ssf(s|θ)ds
=∫
Ss∑
n
λnsn−1e−λs
(n− 1)!e−θθn
n!ds
=∑
n
λne−θθn
(n− 1)!n!
∫
Xxne−λxdx
=∑
n
λne−θθn
(n− 1)!n!Γ(n + 1)
λn+1=
1λ· θ = E (X1|λ) · E (N |θ) .
♦
3.2.1. Resultados generales
Teorema 3.2 La funcion generatriz de momentos y la funcion generatriz de proba-
bilidad de S viene dada por
MS(t) = MN (log MX(t)) , (3.1)
PS(z) = PN (PX(z)) , (3.2)
21
respectivamente, siendo MN (t) la funcion generatriz de momentos de la variable
aleatoria N , MX(t) la funcion generatriz de momentos de la variable aleatoria X,
PN (z) la funcion generatriz de probabilidades de N y PX(z) la funcion generatriz de
probabilidades de X.
Demostracion: En efecto, tenemos que:
MS(t) = E(etS
)= E
[E
(etS |N)]
.
Pero
E(etS |N)
= E
(et
∑N
i=1Xi
)=
N∏
i=1
E(etXi
)= [MX(t)]N ,
donde se ha tenido en cuenta que Xi son i.i.d. Entonces:
MS(t) = E{
[MX(t)]N}
= E{
elog[MX(t)]N}
= E[eN log MX(t)
]
= MN (log MX(t)) .
Por otro lado tenemos:
PS(z) = E (Zs) =∞∑
n=0
E(z∑
Xi |N)
Pr (N = n)
=∞∑
n=0
E
n∏
j=1
ZXj
Pr (N = n)
=∞∑
n=0
Pr (N = n) [PX(z)]n = E[PX(z)N
]= PN (PX(z)) ,
donde se ha asumido que,dado n X1, X2, . . . , Xn son independientes.
Corolario 3.1 La esperanza y la varianza de S vienen dadas por
E(S) = E(N)E(X), (3.3)
V ar(S) = E(N)V (X) + E2(X)V ar(N), (3.4)
respectivamente.
Demostracion: Puesto que
M ′S(t) = M ′
N (log MX(t))M ′
X(t)MX(t)
,
tenemos que:
M ′S(0) = M ′
N (log MX(0))M ′
X(0)MX(0)
= M ′N (0)M ′
X(0) = E(N)E(X).
22
Por otro lado tenemos:
M ′′S (t) = M ′′
N (log MX(t))[M ′
X(t)MX(t)
]2
+ M ′N (log MX(t))
M ′′XMX(t)−M ′
X(t)2
MX(t)2,
y por tanto
M ′′S (0) = M ′′
N (0)M ′X(0) + M ′
N (0)[M ′′
X(0)−M ′X(0)2
].
Luego, E(S2) = E(N2)E2(X) + E(N)V ar(N), y en definitiva:
V ar(S) = E(S2)− E2(S) = E(N2)E2(X) + E(N)V ar(X)− E2(N)E2(X)
= E(N)V (X) + E2(X)V ar(N).
Ejemplo 3.6 Sean las variables aleatorias N , con distribucion de Poisson de parametro
5 y Xi, i.i.d. e independientes de N con distribucion normal de parametros 30 y 7.
Calcular E(S) y V ar(S).
Solucion:E(S) = E(N)E(X1) = 5 · 30 = 150.
V ar(S) = 5 · 7 + 5 · 302 = 4535.
♦
3.2.2. Formula de recursion de Panjer
La clase de distribuciones (a, b, 0)
Definicion 3.2 Una distribucion de masa de probabilidad {pn}∞n=0 pertenece a la
clase (a, b, 0) si
pn
pn−1= a +
b
n, n = 1, 2, . . . , (3.5)
siendo a y b constantes.
Puede probarse que las unicas distribuciones de probabilidad que pertenecen a
dicha clase son la Poisson, binomial, binomial negativa y geometrica.
Ejemplo 3.7 Demostrar que las distribuciones de Poisson y binomial pertenecen a
la clase (a, b, 0) dando los valores de las constantes a y b en cada caso.
23
Solucion: Para la distribucion de Poisson de parametros θ se tiene que:
pn
pn−1=
θ
n,
luego en este caso a = 0 y b = θ.
Para la distribucion binomial con parametros N y p resulta:
pn
pn−1=
p
1− p
(−1 +
N + 1n
),
y por tanto ahora a = −p/(1− p), b = p(N + 1)/(1− p).
♦Observese ahora que (3.5) puede ser rescrita de la siguiente manera:
npn
pn−1= an + b, n = 1, 2, . . . , (3.6)
lo que indica que npn/pn−1 aparece como una funcion lineal de n con pendiente a.
Este valor es cero para la distribucion de Poisson, negativo para la binomial y positivo
para la binomial negativa y geometrica. Luego a partir de la distribucion empırica de
frecuencia de reclamaciones, un simple grafico de npn/pn−1 podrıa indicarnos cual
de las tres distribuciones es aconsejable para ajustar la distribucion de frecuencias
observada.
Ejemplo 3.8 Consideremos los datos de reclamaciones que aparecen en la tabla 3.2.
Calcular los valores de npn/pn−1 y decidir que distribucion entre la Poisson, binomial
y binomial negativa es aconsejable elegir para ajustar esos datos.
Solucion:
Un grafico de npn/pn−1 frente a n nos indicara que distribucion es adecuada para
modelar estos datos. En este caso, puesto que la pendiente es positiva parece que
la binomial negativa es la indicada. Esto se refuerza por el hecho de que los datos
observados son sobredispersos.
♦La formula de recursion de Panjer, uno de los resultados mas importantes en
estadıstica actuarial, permite calcular de manera exacta y recursiva la distribucion
de siniestralidad agregada. Esta distribucion juega un papel destacado en el modelo
colectivo compuesto y en teorıa de la ruina.
Para su obtencion se requiere utilizar la siguiente proposicion.
24
Cuadro 3.2: Frecuencias observadas
Numero
de reclamacionesFrecuencias Absolutas
Observadas n pn
pn−1
0 96978
1 9240 0.09527
2 704 0.15238
3 43 0.18383
4 9 0.83721
Mas de 4 0
Total 106974
Proposicion 3.1∫ x
0
f(y)fn∗(x− y)dy = f (n+1)∗(x), n = 1, 2, . . . (3.7)∫ x
0
yf(y)fn∗(x− y)dy =x
n + 1f (n+1)∗(x), n = 1, 2, . . . (3.8)
Teorema 3.3 (Formula de recursion de Panjer: version continua) Sea
g(x) =
∑∞n=1 pnfn∗(x), x > 0,
p0, x = 0,
donde f(x) es la funcion de densidad continua asociada a la cuantıa y pn la distribu-
cion de masa de probabilidad perteneciente a la clase (a, b, 0) asociada al numero de
siniestros, entonces para cualquier funcion de densidad continua f(x) se cumple la
siguiente recursion:
g(s) = p1f(s) +∫ s
0
(a + by/s) f(y)g(s− y)dy, s > 0. (3.9)
Demostracion: En efecto, se tiene que:
g(s) =∞∑
n=1
pnf∗n(s) = p1f(s) +∞∑
n=2
pnf∗n(s)
= p1f(s) +∞∑
n=1
pn+1f∗(n+1)(s)
Utilizando ahora (3.5) tenemos:
g(s) = p1f(s) +∞∑
n=1
pn
(a +
b
n + 1
)f∗(n+1)(s)
25
= p1f(s) +∞∑
n=1
pn
[af∗(n+1)(s) +
b
sf∗(n+1)(s)
s
n + 1
].
Utilizando ahora (3.7) se tiene:
g(s) = p1f(s) +∞∑
n=1
pn
[af∗(n+1)(s) +
b
s
∫ s
0
yf(y)f∗n(s− y)dy
],
y utilizando (3.8) se obtiene:
g(s) = p1f(s) +∞∑
n=1
pn
∫ s
0
(a + by/s) f(y)f∗n(s− y)dy
= p1f(s) +∫ ∞
0
(a + by/s) f(y)∞∑
n=1
pnf∗n(s− y)dy
= p1f(s) +∫ s
0
(a + bysx) f(y)g(s− y)dy
utObservese ahora que si Xi es discreta y positiva entonces (3.9) adopta la forma:
g(s) =s∑
k=1
(a +
bk
s
)f(k)g(s− k), s = 1, 2, . . . , (3.10)
que se obtiene intercambiando en (3.9) el sımbolo integral por el de suma.
Ejemplo 3.9 Obtener la formula de recursion de Panjer para el caso en que Xi sea
continua y N siga la distribution de Poisson y binomial.
Solucion: Utilizando (3.9) es facil obtener despues de unos pocos calculos que:
g(s) = θe−θf(s) +θ
s
∫ s
0
yf(y)g(s− y)dy,
g(s) =p
1− p
{N(1− p)Nf(s) +
∫ s
0
[(N + 1)y/x− 1] f(y)g(s− y)dy
}.
para los modelos de Poisson y binomial, respectivamente.
♦
3.3. Principios de calculo de primas
La prima es el precio para el seguro (o reaseguro) vendido por la companıa asegurado-
ra. De forma reducida, una prima mınima tecnica esta compuesta de los siguientes
elementos (Capıtulo 4, seccion 2, artıculo 51 del Reglamento de la Ley de Seguros):
Prima pura de riesgo.
26
Sobreprima de seguridad.
Costo adicional para el beneficio.
En resumen, la prima o precio del servicio es el coste que para la empresa puede
suponer las reclamaciones mas el margen de beneficio. En nuestro trabajo nos cen-
traremos siempre en el primer y segundo elemento y nunca haremos mencion al ter-
cero.
El precio correcto, que es llamado rating, es vital, pues si es demasiado bajo rep-
resenta una perdida para la companıa y si es demasiado alto se pierde competitividad
frente a otras. Por tanto una de las labores del actuario consiste en encontrar metodos
de calculo de primas, generalmente llamados en la literatura actuarial principios de
calculo de primas.
Para un actuario un riesgo es lo mismo que una variable aleatoria; si denotamos
por X la variable aleatoria (X varıa en el espacio parametrico X ) tamano de siniestro
(numero medio de reclamaciones o indemnizacion media), un procedimiento de calculo
de prima se define como sigue.
Definicion 3.3 (de principio de calculo de prima) Un principio de calculo de
prima es una funcion H que asigna a un riesgo X un numero real P = H(X), que
se denomina la prima asignada al riesgo X.
La interpretacion practica de esta definicion es la siguiente: para algun riesgo X
el asegurador esta dispuesto a recibir P como contrapartida al pago aleatorio de X.
Por tanto la ganancia del asegurador es P −X, y es una variable aleatoria.
Ahora sea L : IR2 −→ IR una funcion de perdida que atribuye a algun (x, P ) ∈ <2
la perdida sostenida por un decisor que toma la accion P y se encuentra con el
resultado x de algun experimento aleatorio. A partir de aquı se define la prima de
riesgo o verdadera prima individual de la siguiente manera.
Definicion 3.4 (de prima de riesgo o verdadera prima individual ) Dados un
riesgo X con funcion de distribucion F (x) y una funcion de perdida L : IR2 −→ IR
la prima de riesgo es el valor de P que minimiza la perdida esperada∫
XL(x, P ) · dF (x) = E [L(X, P )] ,
27
donde x es el resultado del experimento aleatorio X y P la prima cobrada por tomar
x.
En la mayorıa de las ocasiones el mınimo se determina diferenciando directamente
la expresion anterior e igualando a cero. Esta metodologıa de calculo de prima me-
diante funciones de perdidas fue propuesta por Heiilmann (1989), obteniendo de esta
manera los principios de calculo de primas que ya se utilizaban y otros nuevos. En
realidad resulta indiferente trabajar con esta metodologıa que hacerlo con funciones
de utilidad aunque es mas comoda la primera; en el primer caso el decisor intenta
minimizar la perdida esperada y en el segundo maximizar la utilidad esperada.
Las funciones de perdidas que conducen a los principios de calculo de primas mas
utilizados en la literatura actuarial son:
1. Si L(x, P ) = (x− P )2, entonces:
P = EF [X] ,
constituye el principio de prima neta o de equivalencia.
2. Si L(x, P ) =1α
(eαx − eαP )2 con α > 0 , entonces:
P =1α
ln EF
[eαX
],
constituye el principio de utilidad exponencial
Observemos que este principio de calculo de prima viene dado en terminos del
logaritmo de la funcion generatriz de momentos de la variable aleatoria X. En
Teorıa de la Decision a α se le denomina constante de aversion al riesgo (tambien
llamada medida de Arrow-Pratt) asociada al decisor que toma la funcion de
perdida L(x, P ), en el sentido de que cuanto mayor es α mas adverso al riesgo
sera el decisor (en nuestro caso la companıa aseguradora).
3. Si L(x, P ) = eαx(x− P )2 con α > 0, entonces:
P =EF
[XeαX
]
EF [eαX ],
constituye el principio Esscher, α tiene la misma interpretacion que en el caso
anterior. Observemos que ahora P se obtiene como el cociente entre la derivada
primera de la funcion generatriz de momentos y la propia funcion generatriz, en
el punto α.
28
4. Si L(x, P ) = x(x− P )2, entonces:
P =EF
[X2
]
EF [X]= EF [X] +
VarF [X]EF [X]
,
constituye el principio de varianza.
La ventaja de este principio es que no solo estima la siniestralidad media del
riesgo, sino que nos proporciona tambien el recargo de seguridad que debe llevar
la prima pura para atender a las desviaciones aleatorias de la siniestralidad. En
muchos textos la expresion de P se presenta como P = E[X] + δ · Var[X],
con δ > 0 un parametro, y se dice entonces que la sobreprima de seguridad es
proporcional a la varianza.
Observemos que estos principios pueden desarrollarse siempre que la distribucion
del riesgo, F (x) sea conocida. Supongamos ahora que la distribucion F (x) esta es-
pecificada bajo un parametro desconocido θ, entonces F (x|θ), y la prima de riesgo,
puesto que se desconoce, sera una funcion del paramtreo, llamemosla P (θ). Supong-
amos que θ varıe en un espacio parametrico Θ y que la distribucion a priori sea π(θ),
denominada usualmente en el escenario actuarial funcion estructura; en este escenario
la prima colectiva o a priori se define de la siguiente forma.
Definicion 3.5 (de prima colectiva o a priori) Dados un riesgo X con distribu-
cion F (x|θ), siendo θ un parametro desconocido con distribucion a priori π(θ), y una
funcion de perdida L : IR2 −→ IR , la prima a priori es el valor Pπ que minimiza la
perdida esperada ∫
θ
L(P (θ), Pπ)π(θ)dθ,
con P (θ) la prima de riesgo definida anteriormente.
La prima a priori tal y como esta definida arriba representa la mejor decision que
estima la prima de riesgo (obviamente desconocida). Observemos que para calcularla
se precisara que el actuario pueda definir una distribucion de probabilidad (distribu-
cion a priori) para el valor del parametro desconocido θ, para lo que sera fundamental
la experiencia que para el actuario le supone lo acontecido en los perıodos precedentes,
o bien lo acontecido en otros contratos similares.
29
Para finalizar con este apartado expondremos el caso en el que la distribucion de
X esta especificada bajo un parametro desconocido, y donde la tarificacion incorpora
experiencia de siniestralidad individual.
En este caso el analisis bayesiano nos permitira combinar la informacion inicial o
a priori que se tiene sobre el parametro θ con la informacion muestral para obtener
la distribucion a posteriori. Si π(θ) es la densidad a priori (que refleja las creencias
sobre θ antes de obtener la informacion muestral), y x es la observacion muestral de
una poblacion cuya distribucion depende de θ, la verosimilitud del dato observado la
denotaremos por f(x|θ), y el teorema de Bayes nos permitira obtener la distribucion
a posteriori π(θ|x) de la siguiente manera:
π(θ|x) =f(x |θ)π(θ)∫
Θ
f(x|θ)π(θ)dθ
∝ f(x|θ)π(θ),
es decir como el cociente entre la distribucion conjunta f(x|θ) · π(θ) y la distribucion
predictiva p(x|π) =∫
θf(x|θ)π(θ)d(θ).
A veces, y por conveniencia matematica, el analisis bayesiano considera la clase
de distribuciones a priori conjugadas π(θ) para una verosimilitud dado para que la
distribucion a posteriori π(θ|x) tenga la misma forma que la distribucion a priori.
Una vez observado los datos la informacion a priori se convierte en informacion a
posteriori vıa teorema de Bayes. Esto permite construir la prima bayes o a posteriori
que se define de la siguiente manera.
Definicion 3.6 (de prima bayes o a posteriori) Dados un riesgo X con distribu-
cion F (x|θ), siendo θ un parametro desconocido con distribucion a priori π(θ), una
funcion de perdida L : IR2 −→ IR , y una muestra x, la prima bayes es el valor Pπ(x)
que minimiza ∫
Θ
L(P (θ), Pπ(x))π(θ| x)dθ,
siendo π(θ|x) la distribucion a posteriori de θ dada la muestra y P (θ) la prima de
riesgo definida anteriormente, es el valor que minimiza∫
XL(x, P )f(x|θ)dx.
Por tanto, si nos restringimos a los cuatro casos antes expuestos:
1. Si L(P (θ), Pπ(x)) = (P (θ) − Pπ(x))2, entonces P (θ) = EF [X|θ], y se deduce
que,
Pπ(x) =∫
θ
[∫
Xxf(x|θ)dx
]π(θ|x)dθ = Eπ [EF [X|θ]] .
30
2. Si L(P (θ), Pπ(x)) =1α
(eαP (θ) − eαP π(x))2 con α > 0, entonces, P (θ) =1α
ln EF
[eαX |θ],
y se deduce que,
Pπ(x) =1α
ln∫
θ
[∫
Xeαxf(x|θ)dx
]π(θ|x)dθ =
1α
ln [Eπ [EF [eαx|θ]]] .
3. Si L(P (θ), Pπ(x)) = eαP (P − Pπ(x))2, α > 0, entonces,
P =
∫
Xxeαxf(x|θ)dx
∫
Xeαxf(x|θ)dx
=EF
[XeαX |θ]
EF [eαX |θ] ,
y se deduce que,
Pπ(x) =
∫
θ
P (θ)eαP (θ)π(θ|x)dθ∫
θ
eαP (θ)π(θ|x)dθ
=Eπ
[P (θ) · eαP (θ)
]
Eπ
[eαP (θ)
] .
4. Si L(P (θ), Pπ(x)) = P (θ)(P (θ)− Pπ(x))2, entonces,
P (θ) =
∫
Xx2f(x|θ)dx
∫
Xxf(x|θ)dx
=EF
[X2|θ]
EF [X|θ] ,
y se deduce que,
Pπ(x) =
∫
θ
P (θ)2π(θ|x)dθ∫
θ
P (θ)π(θ|x)dθ
=Eπ
[P (θ)2
]
Eπ [P (θ)].
Ejemplo 3.10 Dado el riesgo X con funcion de densidad f(x), obtener la prima de
riesgo, colectiva y Bayes para cada una de las siguientes funciones de perdidas:
L (x,P) = (x− P)2, L(x,P) = 1α
(eαx − eαP)2
, α > 0,
L(x,P) = eαx (x− P)2 , α > 0, L(x,P) = x (x− P)2 .
Solucion: Aparecen en la tabla 3.3.
♦
31
Cuadro 3.3: Principios en su version riesgo, colectiva y bayes
Prima neta Exponencial
Riesgo
∫
Xxf(x|θ)dx 1
α ln∫
Xeαxf(x|θ)dx
Colectiva
∫
Θ
[∫
Xxf(x|θ)dx
]π(θ)dθ 1
α ln∫
Θ
[∫
Xeαxf(x|θ)dx
]π(θ)dθ
Bayes
∫
Θ
[∫
Xxf(x|θ)dx
]π(θ|x)dθ 1
α ln∫
Θ
[∫
Xeαxf(x|θ)dx
]π(θ|x)dθ
Esscher Varianza
Riesgo
∫
Xxeαxf(x|θ)dx
∫
Xeαxf(x|θ)dx
∫
Xx2f(x|θ)dx
∫
Xxf(x|θ)dx
Colectiva
∫
Θ
P (θ)eαP (θ)π(θ)dθ∫
Θ
eαP (θ)π(θ)dθ
∫
Θ
P (θ)2π(θ)dθ∫
Θ
P (θ)π(θ)dθ
Bayes
∫
Θ
P (θ)eαP (θ)π(θ|x)dθ∫
Θ
eαP (θ)π(θ|x)dθ
∫
Θ
P (θ)2π(θ|x)dθ∫
Θ
P (θ)π(θ|x)dθ
32
Capıtulo 4
La teorıa de la credibilidad.
Distintas aproximaciones
El problema de la teorıa de la credibilidad consiste en determinar las ponderaciones
que afectan a la experiencia de siniestralidad de una poliza respecto a la experiencia
de un colectivo a la que pertenezca dicha poliza. La cuestion basica es determinar
hasta que punto es creıble la experiencia observada de un asegurado individual en
relacion con la prima que debe satisfacer.
Consideremos la cartera de seguros
Polizas o asegurados
1 2 ... j ... k
1 x11 x21 ... xj1 ... xk1
2 x12 x22 ... xj2 ... xk2
... ... ... ... ... ... ...
t x1t x2t ... xjt ... xkt
θ1 θ2 ... θj ... θk
La solucion se obtiene aplicando la formula de credibilidad, que viene dada por:
Pj = (1−Z(t)) P0 + Z(t)Pj ,
donde:
Pj : Prima a aplicar a los asegurados al riesgo j.
33
P0 : Prima a aplicar a un colectivo al que pertenece el asegurado j.
Pj : Prima obtenida en base a la experiencia del asegurado j.
Z(t) : Factor de credibilidad que verifica lımt→∞
Z(t) = 1, siendo t el numero de
expuestos al riesgo j o el perıodo de observacion de la poliza j. Si Z(t) = 1 la
experiencia del asegurado es creıble al 100%. Si Z(t) = 0, Pj = P0, la prima
del asegurado j coincide con la del colectivo al que pertenece dicha poliza.
La formula de credibilidad puede interpretarse tambien de la siguiente manera:
puede considerarse a P0 como la informacion a priori. Pj la nueva informacion obtenida
mediante la observacion de la siniestralidad del riesgo j y Pj el resultado de combinar
la informacion a priori con la informacion adquirida; es decir,
Prima (a posteriori) = (1−Z(t)) Prima a priori + Z(t)Experiencia observada
Luego, visto de esta manera la teorıa de la credibilidad es un proceso bayesiano,
donde se da entrada a la informacion a priori junto a la informacion muestral, para
obtener un estimador revisado de la prima.
Podemos definir la teorıa de la credibilidad como el mecanismo que permite el
ajuste sistematico de las primas de seguros a medida que se obtiene la experiencia de
siniestralidad.
Una de las principales aplicaciones de dicha teorıa se presenta en el seguro de
automoviles, en el que la prima inicial se va modelando sucesivamente a medida que
se incorpora la informacion de la siniestralidad. Son los denominados sistemas de
tarificacion bonus–malus. Se parte de un nivel k neutro, de modo que para niveles
superiores a k el asegurado entra en la escala malus y para niveles inferiores a k en
la escala bonus.
4.1. Modelo de Buhlmann de distribucion libre
El objetivo del modelo de Buhlmann consiste en calcular la mejor prima lineal
H (µ(θ)|X1, X2, . . . , Xt) ,
dependiente de los datos observados, mediante el procedimiento de los mınimos cuadra-
dos.
Notacion previa:
34
µ(θj) = E (Xs|θ) , s = 1, · · · t: Prima de riesgo individual. Esperanza de sinies-
tralidad para la poliza s-esima.
m = ETotal (Xs) = E [µ(θ)]: Prima de riesgo colectiva. Valor esperado de todas
las primas de riesgo individuales.
a = V ar [E (Xs)]: Varianza de las primas de riesgo individuales. Indicador de la
heterogeneidad de la cartera.
s2 = E [Var (Xs|θ)].
Se supondra tambien que X1|θ,X2|θ, . . . ,Xt|θ son independientes e identicamente
distribuıdas.
El objetivo consiste en:
Minimizarci E
(µ(θ)− c0 −
t∑s=1
csXs
)2 .
De donde se deriva el sistema de ecuaciones:
E
[µ(θ)− c0 −
t∑s=1
csXs
]= 0,
E
[Xr
(µ(θ)− c0 −
t∑s=1
csXs
)]= 0, r = 1, 2, . . . , t.
Multiplicando la primera ecuacion por E(Xr) y restandosela a la segunda obten-
emos:
Cov [µ(θ), Xr] =t∑
s=1
csCov (Xr, Xs) , r = 1, 2, . . . , t.
Teniendo en cuenta ahora que
Cov(Xr, Xs) = E [Cov(Xr, Xs|θ)] + Cov [E(Xr|θ), E(Xs|θ)] = s2 + a,
Cov(Xr, Xs) = Cov [µ(θ), µ(θ)] = Var [µ(θ)] = a,
el sistema anterior puede reescribirse como:
s2cr +t∑
s=1
csa = a,
c0 = m−m
t∑s=1
cs.
Debido a la simetrıa del sistema resuta que c1 = . . . = ct, luego el sistema queda:
s2c + atc = a,
c0 + mtc = m.
35
De donde se deduce:
H (µ(θ)|X1, . . . , Xt) = c0 +t∑
s=1
csXs = ms2
s2 + at+ ctx
= ms2
s2 + at+
at
s2 + atx = (1− Z(t))m + Z(t)x,
con:
Z(t) =tV ar [µ(θ)]
tV ar [µ(θ)] + E [σ2(θ)]=
t
t + k=
at
at + s2
siendo k =E
[σ2(θ)
]
V ar [µ(θ)].
La pregunta que surge ahora es como estimar los parametros estructurales m, a, s2.
Para ello se consideran:
m =1k
k∑
j=1
xj =1k
k∑
j=1
t∑s=1
xjs
t
s2 =1k
k∑
j=1
sj2, sj
2 =1
t− 1
t∑s=1
(xjs − xj)2
a =1
k − 1
k∑
j=1
(xj − x)2 − 1ts2.
Los tres estimadores son insesgados y consistentes.
E (m) = m, E (s)2 = s2, E (a) = a,
(m, s, a) −→ (m, s2, a
), cuando t →∞.
4.2. Credibilidad e inferencia bayesiana
Es conocido que los elementos basicos del analisis bayesiano son la verosimilitud y la
distribucion a priori:
Verosimilitud
X ∼ f(x|θ)
Distribucion a priori
θ ∼ π(θ)
A partir de aquı, y utilizando el teorema de Bayes, se obtienen las distribuciones
a posteriori y la distribucion predictiva:
36
Distribucion a posteriori
π(θ|x1, x2, . . . , xt) =f(x1, x2, . . . , xt)π(θ)∫
Θ
f(x1, x2, . . . , xt)π(θ)dθ
Distribucion predictiva
f(xt+1|x1, x2, . . . , xt) =∫
θ
f(xt+1|x1, x2, . . . , xt)π(θ|x1, x2, . . . , xt)dθ
El siguiente resultado muestra que la media de la distribucion a posteriori de θ es
igual a la media de la distribucion predictiva Xt+1, siempre que E[Xi|θ] = θ, i =
1, 2, . . . , t
Teorema 4.1 Sean X1, X2, . . . Xt variables aleatorias i.i.d. tales que E(Xi|θ) = θ, i =
1, 2, . . . , t. Entonces,
E(Xt+1|x1, x2, . . . , xt) = E(θ|x1, x2, . . . xt).
Demostracion:
E(Xt+1|x1, x2, . . . , xt) =∫
Xxf(xt+1|x1, x2, . . . , xt)dx
=∫
Xx
(∫
Θ
f(xt+1|θ)π(θ|x1, x2, . . . , xt)dθ
)dx
=∫
Θ
(∫
Xxf(xt+1|θ)dx
)π(θ|x1, x2, . . . , xt)dθ
= E (θ|x1, x2, . . . , xt) .
2
Luego en este caso la prima neta bayes coincide con la media de la distribucion
predictiva.
En analisis bayesiano resulta de fundamental importancia el concepto de distribu-
ciones conjugadas. Ası, una distribucion a priori se dice conjugda para una verosimil-
itud dada si ambas, la distribucion a priori y la distribucion a posteriori resultante
son de la misma familia de distribuciones de probabilidad.
Una de las mayores ventajas de utilizar distribuciones a priori conjugadas es que
la distribucion a posteriori para un perıodo (por ejemplo, un ano) se puede utilizar
como distribucion a priori para el siguiente perıodo. La siguiente tabla recoge algunas
distribuciones a priori conjugadas respecto a una verosimilitud dada.
37
Verosimilitud, f(x|θ)Priori, π(θ)
Posteriori, π(θ|x)
x = x1, x2, ..., xn, con x = (1/t)∑t
i=1 xi
X ∼ P(θ)
θ ∼ Ga(a, b)Ga(a + t, b + tx)
X ∼ P(θ)
θ ∼ IG(µ, β)GIG
(tx− 1
2 , µ√
12βt+1 , β
2βt+1
)
X ∼ BN(r, θ)
θ ∼ Be(a, b)Be(a + tr, b + tx)
X ∼ B(m, θ)
θ ∼ Be(a, b)Be(a + tx, b + mt− tx)
X ∼ Ga(θ, ϑ)
θ ∼ Ga(a, b)Ga(a + tx, b + tϑ)
X ∼ N(θ, σ2)
θ ∼ N(a, τ2)N
(aσ2+nxτ2
σ2+tτ2 , σ2τ2
σ2+tτ2
)
X ∼ Exp(θ)
θ ∼ Ga(a, b)Ga(a + tx, b + t)
El estimador de credibilidad de Buhlmann es igual al estimador bayesiano de la
prima en un gran numero de casos. Ası, por ejemplo, si la distribucion a priori es
conjugada y la verosimilitud es un miembro de la familia exponencial, entonces el
38
estimador de crediblidad de Buhlmann de la prima neta coincide con el estimador de
credibilidad bayesiano.
Ejemplo 4.1 Sean Xi variables aleatorias i.i.d. que tienen la distribucion de Poisson
con media θ, que a su vez tiene la distribucion gamma. Comprobar que la media
a posteriori de θ se puede escribir como una formula de credibilidad con factor de
credibilidad como el de Buhlmann.
Solucion:
X ∼ P(θ)
θ ∼ Γ(a, b)
=⇒ π(θ|x1, . . . , xt) = Γ(a + tx, b + t),
luego,
E(θ|x1, . . . , xn) =a + tx
b + t=
t
b + tx +
b
b + t
a
b
= Z(t)x + (1−Z(t))E[θ], Z(t) =t
b + t= Z(t)Bayes
Por otro lado, el factor de credibilidad de Buhlmann viene dado por:
Z(t)Buhlmann =tV ar [E(X|θ)]
tV ar [E(X|θ)] + tE [V ar(X|θ)]Ahora,
E(X|θ) = V ar(X|θ) = θ, E[V ar(X|θ)] = E(θ) =a
b
V ar[E(X|θ)] = V ar(θ) = E(θ2)− E2(θ) = a(a+1)b2 − (
ab
)2 = ab2
Luego,
Z(t)Buhlmann =t a
b2
t ab2 + b
a
=t
a + t= Z(t)Bayes
♦Otros pares de distribuciones a priori conjugadas verifican que el estimador de
Buhlmann y el bayesiano para la media a posteriori coinciden. Ası ocurre en los
casos:
Beta–binomial.
Normal–Normal.
Gamma–exponencial.
Geometrica–Pascal.
39
4.3. Modelo de Jewell
En la decada de los anos 50 y 60 del siglo XX Bailey (1950) y Mayerson (1964) pro-
baron que la formula de credibilidad era el estimador Bayes (la prima Bayes) para
determinadas combinaciones de verosimilitudes y distribuciones a priori. Por ejemp-
lo, para los pares Poisson-gamma, binomial-beta, etc. Jewell (1974) demostro poste-
riormente que estos resultados no eran mas que casos particulares del caso general
consistente en considerar como verosimilitud la familia exponencial. Esto se pone de
manifiesto en el siguiente resultado.
Teorema 4.2 Dados un riesgo X con funcion de densidad f(x|θ), y la distribucion
a priori del parametro conjugada para esa verosimilitud, entonces el estimador de
Buhlmann de la prima neta y el estimador bayesiano (la prima neta Bayes) coinciden
cuando ambas distribuciones pertenecen a la familia exponencial.
Demostracion: La demostracion se llevara a cabo considerando la familia exponen-
cial continua, dejando para el lector la demostracion para el caso discreto. Ası, dada
la familia exponencial de la forma:
f(x|θ) =a(x)e−θx
c(θ), θ ∈ Θ,
en la que c(θ) es la constante de normalizacion. La distribucion a priori conjugada
natural para esta verosimilitud es:
π(θ) =[c(θ)]−n0 e−θx0
d(n0, x0), (4.1)
donde d(n0, x0) es de nuevo una constante de normalizacion y n0 y x0 dos parametros
de la que depende. La distribucion a posteriori es de nuevo del tipo (4.1), pero con
los parametros actualizados:
n0 → n0 + t,
x0 → x0 +t∑
i=1
xi.
La prima neta de riesgo y la varianza de X vienen dadas por:
P (θ) = µ(θ) = −c′(θ)c(θ)
,
Var(X|θ) =c′′(θ)c(θ)− c′(θ)2
c(θ)2= − d
dθ[P (θ)] .
40
Derivando (4.1) con respecto a θ se obtiene:
π′(θ) =1
d(n0, x0)
{−n0 [c(θ)]−n0−1
c′(θ)e−θx0 − x0e−θx0 [c(θ)]−n0
}
= π(θ)[−n0c
′(θ)c(θ)
− x0
]= π(θ) [n0µ(θ)− x0] . (4.2)
Integrando ahora (4.2) sobre Θ tenemos:
π(θ)|Θ = n0
∫
Θ
µ(θ)π(θ)dθ − x0,
y suponiendo que π(θ) se anula en los extremos de Θ resulta:∫
Θ
µ(θ)π(θ)dθ =x0
n0= m.
Entonces:∫
Θ
µ(θ)π(θ|x1, . . . , xt)dθ =x0 +
∑ti=1 xi
n0 + t= [1− Z(t)] m + Z(t)x,
con Z(t) = tn0+t . Derivando (4.2) con respecto a θ queda:
π′′(θ) = π′(θ) [n0µ(θ)− x0] + π(θ)n0−c′′(θ)c(θ) + c′(θ)2
c(θ)2
= π(θ) [n0µ(θ)− x0]2 − π(θ)n0Var(X|θ).
Finalmente, integrando (4.3) con respecto a Θ resulta:∫
Θ
π′′(θ)dθ =∫
Θ
[n0 (µ(θ)−m)]2 π(θ)dθ − n0E [Var (X|θ)]= n0 {n0Var [µ(θ)]− E [Var (X|θ)]} .
Teniendo en cuenta que si π(θ) se anula en los extremos de Θ, tambien lo hara su
derivada, concluimos que
n0 =E [Var (X|θ)]Var [E (X|θ)] =
s2
a,
y, por tanto, el factor de credibilidad Z(t) es igual al de Buhlmann.
En definitiva, el estimador de credibilidad de Buhlmann es igual al estimador
bayesiano de la prima en un gran numero de casos. Esto ocurre, por ejemplo, si la
distribucion a priori es conjugada y la verosimilitud es un miembro de la familia expo-
nencial, entonces el estimador de credibilidad de Buhlmann de la prima neta coincide
con el estimador de credibilidad bayesiano. Ası ocurre con los pares de distribuciones
beta-binomial, normal-normal, gamma-exponencial y Poisson-gamma,.
41
Capıtulo 5
Sistema de tarificacion
Bonus–Malus
Se trata de un sistema de tarificacion en el que la prima inicial se modifica a medida
que se incorpora la experiencia de siniestralidad. Se parte de un nivel k neutro; para
niveles inferiores a k el asegurado entra en la escala bonus, mientras que para niveles
superiores a k, entra en la escala malus.
Generalmente estan basados en el numero de reclamaciones, y no en la cuantıa.
Expresando la prima como una funcion del numero de reclamaciones k y del perıodo
de tiempo t, representaremos la prima bonus–malus mediante BMP (k, t).
Lo relevante de este sistema de tarificacion es que un asegurado que en el perıodo
actual no presente reclamacion se vera bonificado en el siguiente perıodo mediante
un descuento en la prima a pagar. Por el contrario, si experimenta reclamacion se
vera penalizado con un incremento de la prima. Luego, tendra que verificarse que
∂BMP (k, t)∂k
> 0,∂BMP (k, t)
∂t< 0.
Una forma de obtener primas que cumplan estas sencillas reglas de transicion,
utilizando la metodologıa bayesiana, consiste en dividir una magnitud a posteriori
entre una magnitu a priori. Ası, si por ejemplo utilizamos el principio de prima neta,
puede obtnerse una prima bonus–malus mediante la expresion:
BMP (k, t) = 100
∫
Θ
θπ(θ|k, t)dθ∫
Θ
θπ(θ)dθ
.
42
Ejemplo 5.1 Obtener la prima bonus–malus bajo el principio de prima neta y el par
Poisson–Gamma.
Solucion: X ∼ Poisson(θ), θ ∼ Γ(a, b)
BMP (k, t) = 100a + k
b + t
b
a, k =
t∑
i=1
ki = tk
♦
Ejemplo 5.2 La siguiente tabla muestra el numero de asegurados para las reclama-
ciones k = 0, 1, 2, 3, 4 en una cartera de seguros de autos. Suponiendo que el modelo
queda bien explicado con una verosimilitud Poisson y una distribucion a priori gam-
ma.
Cuadro 5.1: Frecuencias observadas
Numero
de reclamacionesFrecuencias Absolutas
Observadas
0 96978
1 9240
2 704
3 43
4 9
Mas de 4 0
Total 106974
Se pide:
1. Obtener la distribucion incondicional del numero de reclamaciones.
2. Estimar mediante el metodo de los momentos los parametros de la distribucion
gamma.
3. Obtener la tabla de frecuencias ajustadas.
4. Obtener una matriz A ∈ M4×6 en la que el elemento aij , i = 1, 2, . . . 4; j =
1, 2, . . . , 6 sea el porcentaje de prima a aplicar (prima Bayes) en el perıodo i con
j reclamaciones, bajo un sistema de tarificacion Bonus–Malus y el principio de
prima neta.
43
Solucion:
1.
P [N = n] = E {P [N = n|θ]} =∫
Θ
f(n|θ)π(θ)dθ
=1n!
ba
Γ[a]
∫
Θ
θa+n−1e−(b+1)θdθ =1n!
ba
Γ[a]Γ[a + n]
(b + 1)a+n
=(a + n− 1)!(a− 1)!n!
(b
b + 1
)a (1
b + 1
)n
=(
a + n− 1n
)(b
b + 1
)a (1
b + 1
)n
que es la binomial negativa de paramtros a y bb+1 .
2. La media y la varianza de la distribucion binomial negativa son a 1−pp y a 1−p
p2 ,
respectivamente, donde en nuestro caso p = b1+b . La media y la varianza de la
distribucion observada son k = 0,1011 y s2 = 0,1074, respectivamente. Luego,
resolviendo el sistema obtenemos los estimadores a = 1,6049 y b = 15,8778.
a 1−pp = 0,1011,
a 1−pp2 = 0,1074,
tendremos que resolver el sistema
3. Aparece en la tabla 5.2.
Cuadro 5.2: Frecuencias observadas y ajustadas
Numero
de reclamcionesFrecuencias absolutas
Observadas Ajustadas
0 96978 96895.5
1 9240 9222.5
2 704 711.7
3 43 50.7
4 9 3.6
Mas de 4 0 0
Total 106974 106974
4. La matriz pedida es la de la tabla 5.3:
♦
44
Cuadro 5.3: Primas bonus–malus para el par Poisson–Gamma con a = 1,6049 y
b = 15,8778
k
t 0 1 2 3 4 5 6
0 100
1 94.07 152.69 211.30 269.92
2 88.81 144.15 199.48 254.82 310.16 365.51
3 84.10 136.51 188.92 241.32 293.73 346.14 398.55
4 79.87 129.64 179.41 229.18 278.95 328.73 378.50
45
Capıtulo 6
Reaseguros
El reaseguro es un instrumento del que dispone la empresa aseguradora para aco-
modar la estructura de riesgos asumido a su capacidad financiera. De forma muy
simple, podemos decir que el reaseguro es el seguro de las companıas de seguros. A
traves de este instrumento una companıa aseguradora, la companıa cedente, traslada
la totalidad o parte de los riesgos asumidos a otra empresa aseguradora, la companıa
aceptante, a quien paga una prima de reaseguro por el riesgo asumido. La parte de ries-
go transferida se denomina cesion y la parte no cedida de retencion o pleno. Aunque
por un lado mediante el reaseguro se reduce el riesgo para la companıa cedente, por
otro lado tiene como contrapartida una reduccion del beneficio esperado. El contrato
de reaseguro implica que si se produce un siniestro el responsable frente al asegurado
es el asegurador directo (la empresa cedente) que posteriormente repercutira la parte
correspondiente a la empresa reaseguradora en la forma que estipule el contrato acor-
dado entre las partes. A su vez, la companıa reaseguradora puede hacer lo mismo,
reasegurando parte del riesgo a una tercera companıa, y ası sucesivamente. Esta lınea
de actuacion es comun en los seguros contra grandes catastrofes, como terremotos,
inundaciones o centrales nucleares, por poner algunos ejemplos. Aunque tambien re-
sulta conveniente el reaseguro para cubrir aumentos inesperados de la inflacion. En
general esta modalidad de seguro es susceptible de aplicarse cuando se espera que la
varianza del riesgo sea grande.
De entre las modalidades de reaseguros trataremos aquı las dos mas conocidas:
el reaseguro proporcional y el reaseguro excess loss. El reaseguro stop–loss es una
adaptacion del reaseguro excess loss a la cartera en su totalidad. Las franquicias, que
no constituye de por sı un tipo de reaseguro, no obstante pueden ser contempladas
46
tambien como un caso particular de un reaseguro excess loss.
6.1. Reaseguro proporcional
En este caso la cesion es proporcional al riesgo asumido por la companıa cedente. Si
X es la variable aleatoria representativa del riesgo con funcion de distribucion F (x),
entonces la companıa cedente paga una proporcion fija, a, mientras que el porcentaje
restante, 1− a, lo paga la compania aceptante. Si denominamos mediante Y la parte
pagada por el asegurador y Z la parte pagada por el reasegurador, obviamente se
cumple que
Y = aX, Z = (1− a)X, X = Y + Z.
Entonces las variables aleatorias Y y Z son transformaciones de escala de la va-
riable aleatoria X y, por tanto, en termino de funciones de distribucion se verifica
que:
Pr (Y ≤ x) = Pr (aX ≤ x) = Pr (X ≤ x/a) = F (x/a).
Ejemplo 6.1 Suponiendo un riesgo X que sigue una distribucion gamma con paramet-
ros c, d > 0, calcular la funcion de densidad de probabilidad de aX y de (1− a)X
Solucion:
g(y) = g(aX) = f(x/a) =dcxc−1
Γ(c)ac−1e−dx/a,
que, por supuesto, es una distribucion gamma con parametros c y d/a.
Por otro lado,
h(z) = h((1− a)X) = f(x/(1− a)) =dcxc−1
Γ(c)(1− a)c−1e−dx/(1−a),
que es una distribucion gamma con parametros c y d/(1− a).
♦
6.2. Excess loss
En esta modalidad, el reasegurador asume la parte de cada siniestro que supera una
determinada cantidad, M . Luego, el asegurador paga Y = mın(X, M), mientras que
el reasegurador paga Z = max(0, X −M).
47
Si FY (x) es la funcion de distribucion asociada a la variable Y se verificara:
FY (x) =
F (x), x ≤ M,
1, x ≥ M.
Ahora tenemos que
E (Y n) =∫ ∞
0
[mın(X, M)]n f(x)dx,
y, teniendo en cuenta que:
mın(X,M) =
x, 0 ≤ x ≤ M,
M, x ≥ M,
entonces:
E (Y n) =∫ M
0
xnf(x)dx +∫ ∞
M
Mnf(x)dx =∫ M
0
xnf(x)dx + Mn [1− F (M)] .
En muchas ocasiones el max(0, X −M) se representa tambien como (X −M)+
Ejemplo 6.2 Calcular la derivada, dE(Y )dM , y los lımites, lımM→0 E(Y ) y lımM→∞E(Y ).
Solucion: Es inmediato que
E (Y ) =∫ M
0
xf(x)dx + M [1− F (M)] ,
de donde se deduce:
d
dME (Y ) = 1− F (M) > 0, lım
M→0E (Y ) = 0, lım
M→∞E (Y ) = E (X) .
♦Si denotamos mediante FZ(x) la funcion de distribucion asociada a la variable
aleatoria Z, tenemos:
FZ(x) =
F (M), x = 0,
F (x + M), x ≥ 0,
luego, ahora:
E (Zn) =∫ ∞
0
[max(0, x−M)]n f(x)dx,
y, puesto que max(0, x−M) = 0 si 0 ≤ x ≤ M , tenemos:
E (Zn) =∫ ∞
M
(x−M)nf(x)dx.
Ejemplo 6.3 Si X sigue una distribucion exponencial con parametro λ > 0, se pide
calcular MZ(t), ası como E(Zj), j = 0, 1, . . .
48
Solucion:
MZ(t) =∫ ∞
0
etZf(z)dz =∫ ∞
0
et max(0,X−M)λe−λxdx
=∫ M
0
et max(0,X−M)λe−λxdx +∫ ∞
M
et max(0,X−M)λe−λxdx.
Ahora, teniendo en cuenta que en [0,M ], X−M < 0 entonces max(0, X−M) = 0,
y que en [M,∞), X −M > 0 y por tanto max(0, X −M) = X −M , tenemos:
MZ(t) =∫ M
0
λe−λxdx +∫ ∞
M
et(X−M)λe−λxdx
= 1− e−λM + e−tM
∫ ∞
M
ex(t−λ)dx
= 1− e−λM +λe−λM
λ− t, λ > t.
Por otro lado, E(Z) = M ′Z(0) = λ−1e−λM , y se deduce que E(Zj) = λ−je−λM ,
j = 0, 1, . . .
♦
Ejemplo 6.4 Calcular la prima de reaseguro excess loss para el principio de prima
neta y el principio exponencial si la distribucion de X es F (x).
Solucion:
P =∫ ∞
0
max(0, x−M)f(x)dx
=∫ ∞
0
max(0, x−M)f(x)dx +∫ ∞
M
max(0, x−M)f(x)dx
=∫ ∞
M
(x−M)f(x)dx,
ya que max(0, X − M) = 0 para x ∈ [0,M ] y es X − M para x ∈ [M,∞]. Ahora
integrando por partes resulta:
P =∫ ∞
M
[1− F (x)] dx,
para el principio de prima neta. Para el principio exponencial tenemos:
P =1α
log∫ ∞
0
eα max(0,x−M)f(x)dx
=1α
log
{∫ M
0
f(x)dx +∫ ∞
M
eα(x−M)f(x)dx
}
=1α
log{
1−+?α∫ ∞
M
eα(x−M) [1− F (x)]}
.
♦
49
Ejemplo 6.5 Encontrar la funcion de densidad de probabilidad de V , siendo V la
variable aleatoria que nos da los pagos (mayores que cero) hechos por el reasegurador.
Solucion:
Pr(V ≤ x) = Pr(Z ≤ x|Z > 0) = Pr(X ≤ X + M |X > M)
=Pr(M < X ≤ X + M)
Pr(X > M)=
F (x + M)− F (M)1− F (M)
.
Ahora derivando se obtiene que la funcion de densidad de probabilidad de V es:
f(v) =f(x + M)1− F (M)
. (6.1)
Ejemplo 6.6 Calcular f(v) si X sigue la distribucion exponencial con parametro
λ > 0.
Solucion: Utilizando (6.1) se obtiene que la densidad de V es la misma que la de X.
♦
6.3. Reaseguro stop loss
Aplicable generalmente a los grandes siniestros. En este caso el acuerdo entre asegu-
rador y reasegurador estipula que este paga un cierto numero de los mayores siniestros
en un ano. Usualmente se combina con alguna de las formas de reaseguros vistas an-
teriormente.
Las franquicias pueden ser contempladas de la misma manera que los reaseguros
excess loss. En este caso, el asegurado participa del pago de toda cantidad menor o
igual que M , mientras que paga M para cualquier siniestro que exceda a M . Luego
el asegurado paga max(X,M) y el asegurador paga max(0, X − M . Por tanto el
tratammiento matematico de este tipo de seguros es igual al de reaseguros en la
modalidad excess loss.
50
Capıtulo 7
Teorıa de la ruina
7.1. Introduccion
En este capıtulo se considerara la evolucion de la operacion de aseguramiento a lo largo
del tiempo. Suponemos que la companıa aseguradora comienza con una cantidad de
dinero positiva (reservas en el tiempo 0), recauda primas y paga las indemnizaciones
correspondientes en la medida en que se producen. Si las reservas son negativas o
nulas se dice entonces que ocurre la ruina.
7.2. El problema de la ruina
En la Teorıa de la ruina el proceso de reservas de una companıa de seguros se modela
de acuerdo a un proceso estocastico de riesgo. Para ello, si {N(t)}t≥0 representa el
proceso asociado al numero de reclamaciones, esto es, N(t) representa el numero de
reclamaciones en el intervalo [0, t]. Se asumira que {N(t)}t≥0 es un proceso de Poisson.
Las cuantıas de los siniestros se consideran como una secuencia de variables aleatorias
{Xi}∞i=1 independientes e identicamente distribuidas, de manera que Xi representa
la cantidad de indemnizacion asociada al i−esimo siniestro. Luego, la siniestralidad
total hasta el instante t vendra dado por S(t) =∑N(t)
i=1 Xi, asumiendo que S(t) = 0
si N(t) = 0. Por tanto, S(t) =∑N(t)
i=1 Xi es un proceso compuesto de Poisson.
Consideremos ahora una companıa aseguradora que presenta la siguiente estruc-
tura de reserva en el momento t:
U(t) = u + ct− S(t), (7.1)
51
donde u = U(0) representa el valor inicial de la reserva, ct el monto de primas cobradas
y S(t) la siniestralidad total hasta el momento t.
Se supondra que ct > E [S(t)], es decir que la sobreprima de seguridad es positiva.
Usualmente se escribe c = (1 + θ)λE[X], donde θ > 0 es la sobreprima de seguridad.
7.2.1. Ruina con horizonte finito e infinito
La probabilidad de ruina con horizonte infinito, tambien conocida como ultima
probabilidad de ruina, se define para el caso de tiempo continuo como
φ(u) = Pr (U(t) < 0, para algun t > 0) .
Dicho literalmente, se trata de la probabilidad de que las reservas de la companıa
aseguradora caigan por debajo de cero para algun tiempo t > 0.
Para el caso de tiempo discreto, la probabilidad de ruina, o de ultima ruina es
φ(u) = Pr (U(t) < 0, para algun t, t = r, 2r, 3r, . . .) .
Por supuesto que se verifica que si la ruina ocurre bajo tiempo discreto tambien
ocurrira bajo tiempo continuo. El recıproco obviamente no es cierto.
La probabilidad de ruina con horizonte finito, tambien conocida como ultima prob-
abilidad de ruina, se define para el caso de tiempo continuo como
φ(u, t) = Pr (U(s) < 0, para algun s, 0 < s ≤ t) .
Dicho literalmente, se trata de la probabilidad de que las reservas de la companıa
aseguradora caigan por debajo de cero para algun tiempo en el intervalo de tiempo
(0, t].
Para el caso de tiempo discreto, la probabilidad de ruina, o de ultima ruina con
horizonte finito es
φ(u, t) = Pr (U(a) < 0, para algun s, s = r, 2r, 3r, . . . t) ,
siendo t un entero multiplo de r.
7.3. La probabilidad de supervivencia
A efectos de calcular la probabilidad de ruina φ(u) es recomendable trabajar con la
funcion Φ(u) = 1−φ(u), es decir la probabilidad de que cuando se comienza con unas
reservas iniciales u la ruina nunca ocurra. El siguiente teorema establece una ecuacion
integro diferencial que verifica la probabilidad de no ruina o supervivencia.
52
t
U(t)
u
Figura 7.1: Proceso de riesgo
Teorema 7.1 La probabilidad de supervivencia satisface la ecuacion integro diferen-
cial
Φ′(u) =λ
c
(Φ(u)−
∫ u
0
f(x)Φ(u− x)dx
). (7.2)
Demostracion: Observemos que dado (7.1) la ruina ocurre si S(t) > u+ct, mientras
que la ruina no ocurre (y por tanto ocurre el suceso supervivencia) si S(t) ≤ u + ct,
o lo que es equivalente S(t)− x ≤ u + ct− x. Luego,
Pr (No ruina) = Pr (S(t)− x ≤ u + ct− x) = Φ (u + ct− x) ,
y por tanto,
Φ(u) =∫ ∞
t=0
∫ u+ct
x=0
Φ(u + ct− x) f(x)g(t)dxdt
=∫ ∞
0
λe−λt
∫ u+ct
0
f(x)Φ(u + ct− x)dxdt. (7.3)
Realizando el cambio de variable s = u + ct en la ecuacion (7.3) tenemos ahora
que
Φ(u) =1c
∫ ∞
u
λe−λc (s−u)
∫ s
0
f(x)Φ(s− x)dxds
53
=λ
ce
λuc
∫ ∞
u
e−λsc
∫ s
0
f(x)Φ(s− x)dxds
=λ
ce
λuc
(∫ ∞
0
e−λsc
∫ s
0
f(x)Φ(s− x)dxds
−∫ u
0
e−λsc
∫ s
0
f(x)Φ(s− x)dxds
).
Derivando ahora en la expresion anterior con respecto a u a ambos lados de la
igualdad nos queda
Φ′(u) =λ
c
(Φ(u)−
∫ u
0
f(x)Φ(u− x)dx
).
Esta ultima expresion se dice que es una ecuacion integro diferencial puesto que
la funcion incognita Φ(u) aparece en terminos de derivada y bajo el sımbolo de la
integral simultaneamente.
El siguiente teorema nos da la probabilidad de ruina para u = 0
Teorema 7.2 La probabilidad de ruina en u = 0 viene dada por
φ(0) =λE[X]
c. (7.4)
Demostracion: Intercambiando en la ecuacion (7.2) Φ por 1− φ tenemos
−φ′(u) =λ
c− λ
cφ(u)− λ
c
∫ u
0
f(x)dx +λ
c
∫ u
0
f(x)φ(u− x)dx.
Luego nos queda
φ′(u) =λ
cφ(u)− λ
c
∫ u
0
f(x)φ(u− x)dx− λ
c
(1−
∫ u
0
f(x)dx
)
=λ
cφ(u)− λ
c
∫ u
0
f(x)φ(u− x)dx− λ
c(1− F (u)) .
Integrando ahora a ambos lados de la igualdad sobre u desde cero hasta infinito
tenemos∫ ∞
0
φ′(u)du =λ
c
∫ ∞
0
φ(u)du− λ
c
∫ ∞
0
∫ u
0
f(x)φ(u− x)dxdu
− λ
c
∫ ∞
0
(1− F (u)) du. (7.5)
La doble integral en (7.5) puede ser rescrita, haciendo el cambio de variable u−x = y
como∫ ∞
0
∫ u
0
f(x)φ(u− x)dxdu =∫ ∞
0
∫ ∞
0
φ(y)dyf(x)dx =∫ ∞
0
φ(y)dy.
54
Llevando este ultimo resultado a (7.5) y teniendo en cuenta que∫∞0
φ′(u)du =
−φ(0) resulta
φ(0) =λ
c
∫ ∞
0
(1− F (u)) du =λE[X]
c.
Ejemplo 7.1 Obtener la funcion φ(u), i.e. la probabilidad de ruina, cuando la cuantıa
de las reclamaciones se distribuye segun una ley exponencial de parametro α > 0.
Solucion: En nuestro caso f(x) = αe−αx, ası que usando (7.2) resulta
Φ′(u) =λ
cΦ(u)− λα
c
∫ u
0
e−αxΦ(u− x)dx.
Haciendo ahora el cambio de variable z = u− x tenemos
Φ′(u) =λ
cΦ(u) +
λα
c
∫ 0
u
e−α(u−z)Φ(z)dz
=λ
cΦ(u)− λα
ce−αu
∫ u
0
eαzΦ(z)dz. (7.6)
Derivando ahora la ecuacion (7.6) tenemos
Φ′′(u) =λ
cΦ′(u) +
λα2
ce−αu
∫ u
0
eαzΦ(z)dz − λα
cΦ(u). (7.7)
Pero de la ecuacion (7.6) se tiene que∫ u
0
eαzΦ(z)dz =[λ
cΦ(u)− Φ′(u)
]ceαu
λα
Luego, llevando esto a (7.7) tenemos
Φ′′(u) =λ
cΦ′(u) +
λα
cΦ(u)− αΦ′(u)− λα
cΦ(u).
En definitiva nos queda
Φ′′(u) +(
α− λ
c
)Φ′(u) = 0,
que corresponde a una ecuacion diferencial de segundo orden con coeficientes con-
stantes cuya solucion general es
Φ(u) = a0 + a1e−(α−λ
c )u.
Puesto que segun el resultado 7.4, Φ(0) = λE[X]/c, E[X] en nuestro caso es 1/α,
tenemos que Φ(0) = 1 − φ(0) = 1 − λ/ (αc) = a0 + a1. Por otro lado, teniendo en
cuenta que lımu→∞ Φ(u) = 1, de aquı se desprende que a0 = 1. Por tanto, la solucion
de la ecuacion diferencial es
Φ(u) = 1− λ
αce−(α−λ
c )u,
55
y la probabilidad de ruina es
φ(u) = 1− Φ(u) =λ
αce−(α−λ
c )u. (7.8)
♦
Ejemplo 7.2 Calcular la probabilidad de ruina si X sigue una ley exponencial con
parametro α = 1, c = 0,2 y λ = 0,1, teniendo en cuenta que las reservas iniciales son
5, 10,15, 20 y 25.
Solucion: Sustituyendo los valores de α, c y λ en (7.8) se obtienen los siguientes
valores para la probabilidad de ruina.
Cuadro 7.1: φ(u) para distintos valores de u
u φ(u)
5 0.041
10 0.0033
15 0.00027
20 0.000022
♦
7.4. Coeficiente de ajuste y desigualdad de Lund-
berg
Definicion 7.1 El coeficiente de ajuste, R, se define por ser la unica raız positiva de
la ecuacion
λ
∫ ∞
0
erxf(x)dx = λ + rc. (7.9)
Observese que la ecuacion (7.9) tiene al menos una solucion distinta de la trivial
(r = 0), ya que el lado derecho de la ecuacion es una funcion lineal de r mientras que
el lado izquierdo es una funcion convexa.
El coeficiente de ajuste juega un papel importantısimo en Teorıa de la Ruina
puesto que φ(u) ≤ e−Ru como probamos en el siguiente teorema.
Teorema 7.3 Supongamos que R > 0 satisface la ecuacion (7.9), entonces la proba-
bilidad de ruina verifica
φ(u) ≤ e−Ru, u ≥ 0. (7.10)
56
Demostracion: Sea φn(u) la probabilidad de que la ruina ocurra en la reclamacion
n−esima o antes de ella, n = 0, 1, . . .. Ahora procederemos por induccion sobre n.
Para n = 0 obviamente se verifica que φ0(u) = 0 < e−Ru. Supongamos ahora que
φn(u) ≤ e−Ru, entonces
φn+1(u) =∫ ∞
0
λe−λt
∫ ∞
0
φn(u + ct− x)f(x)dxdt
≤∫ ∞
0
λe−λt
∫ ∞
0
e−R(u+ct−x)f(x)dxdt
= e−Ru
∫ ∞
0
λet(−λ−Rc)
(∫ ∞
0
eRxf(x)dx
)dt. (7.11)
Ahora, puesto que R es solucion de la ecuacion (7.9) tenemos que∫ ∞
0
eRxf(x)dx =λ + Rc
λ. (7.12)
Sustituyendo, finalmente, (7.12) en (7.11)y efectuando la integral correspondiente
se obtiene el resultado deseado.
Ejemplo 7.3 Determinar una cota superior para la probabilidad de ruina si X sigue
una ley exponencial con parametro α = 1, c = 0,2 y λ = 0,1, teniendo en cuenta que
las reservas iniciales son 5, 10,15, 20 y 25.
Solucion: Puesto que E [erx] = 1/(1 − αr), el coeficiente de ajuste es la solucion
positiva de la ecuacionλ
1 + αr= λ + rc,
que resulta R = 0,5. Luego φ(u) ≤ e−0,5u y por tanto
Cuadro 7.2: Cota superior para φ(u)
u φ(u)
5 0.082000
10 0.006000
15 0.000550
20 0.000045
♦
57
Ejercicios propuestos
1. Sean X e Y variables aleatorias independientes con distribuciones de Poisson
de parametros θ1 y θ2, respectivamente. Calcular la funcion de densidad de
probabilidad de la variable aleatoria S = X + Y .
2. Dado un modelo compuesto en el que la distribucion primaria es binomial neg-
ativa con parametros r > 0, p ∈ (0, 1), mientras que la distribucion secundaria
viene dada por:
f(x|λ) = λe−λx, λ > 0.
Calcular la funcion de densidad de probabilidad de la variable aleatoria
S =N∑
i=1
Xi.
3. Con los datos del ejercicio anterior calcular E[S|θ].
4. Sean las variables aleatorias N , con distribucion de Poisson de parametro 5 y
Xi, i.i.d. e independientes de N con distribucion normal de parametros 30 y 7.
Calcular E[S] y V ar(S).
5. Con los datos del ejercicio 1, calcular V ar(Y ).
6. Una companıa de seguros tiene dos grupos de asegurados en una poliza que
cubre determinado riesgo. Las cantidades agregadas de reclamacion (en millones
de u.m.) para los tres primeros anos de vigencia de la poliza se recogen en la
siguiente tabla
Grupos
Ano k = 1 k = 2
t = 1 5 11
t = 2 8 13
t = 3 11 12
58
Utilizar el modelo de Buhlmann de distribucion libre para estimar la prima
pura o neta para el cuarto ano de la poliza para cada uno de los dos grupos de
asegurados.
7. Sean Xi variables aleatorias i.i.d. que tienen la distribucion de Poisson con media
θ, que a su vez tiene la distribucion gamma, Γ(a, b), a, b > 0. Comprobar que
la media a posteriori de θ se puede escribir como una formula de credibilidad
con factor de credibilidad como el de Buhlmann.
8. El numero de reclamaciones Ni durante el i–esimo ano de vigencia de una poliza
para un asegurado individual (i = 1, 2) tiene la distribucion de Poisson con
parametro θ (se supone independencia entre N1 y N2). La distribucion a priori
de θ es la uniforme sobre el intervalo (0,1). El asegurado reclama un siniestro
durante el primer ano de la poliza. Se pide:
a) Utilizar la aproximacion bayesiana para estimar el numero esperado de
reclamaciones durante el segundo ano de la poliza.
b) Utilizar la aproximacion de Buhlmann para obtener tambien el numero
esperado de reclamaciones durante el segundo ano de la poliza.
9. Demostrar que las distribuciones de Poisson y binomial pertenecen a la clase
(a, b, 0) dando los valores de las constantes a y b en cada caso.
10. Sea N ∼ P(2) y X ∼ Exp(λ). Calcular:
g(s), s = 0,2; 0,5; 0,8; 1; 2; 5
de manera exacta y utilizando la formula de recursion de Panjer en su version
continua.
11. Obtener la formula de recursion de Panjer para el caso en que Xi sea continua
y N siga la distribution de Poisson y binomial, binomial negativa y geometrica.
12. Sea Ni la variable aleatoria que denota el numero de reclamaciones para el
i–esimo ano de vigencia de una poliza. Ni tiene la distribucion de Poisson con
parametro θ, y θ tiene la funcion de densidad de probabilidad π(θ) = e−θ, θ > 0.
Se pide:
a) ¿Cual es la probabilidad incondicional Prob[N1 = 2]?
b) Determinar la distribucion predictiva Prob[N2 = d|N1 = 2] , d = 0, 1, ...
59
13. Dado el riesgo X con funcion de densidad f(x), obtener la prima de riesgo,
colectiva y Bayes para cada una de las siguientes funciones de perdidas:
L (x,P) = (x− P)2, L(x,P) = 1α
(eαx − eαP)2
, α > 0,
L(x,P) = eαx (x− P)2 , α > 0, L(x,P) = x (x− P)2 .
14. Para los pares verosimilitud/priori siguientes y los principios de calculo de pri-
mas que se indican, obtener las primas de riesgo, colectiva y bayesiana
Poisson–Gamma Neta, Exponencial, Esscher y Varianza.
Binomial Negativa–Beta Neta.
Binomial–Beta Neta.
Gamma–Gamma Neta y Varianza.
Normal–Normal Neta, Exponencial, Esscher y Varianza.
Exponencial–Gamma Neta y Varianza.
15. Comprobar que primas bayesianas obtenidas en el ejercicio anterior adoptan
la forma de una formula de credibilidad con factor de credibilidad como el de
Buhlmann.
16. Para el modelo colectivo compuesto del ejercicio 3 obtener la prima de riesgo,
colectiva y bayesiana para los cuatro principios de calculo de primas estudiados.
17. Sea la funcion de utilidad U(R) = 1r
(1− e−rR
), en la que R representa la riqueza
de la companıa aseguradora y r > 0 la aversion al riesgo de la misma. Para un
riesgo X con funcion de densidad f(x), obtener el valor de la prima (denominada
prima exponencial) que iguala la utilidad de la companıa aseguradora antes de
contratar un seguro con la utilidad esperada despues de contratarlo.
18. Obtener la prima de riesgo, colectiva y bayesiana exponencial utilizando la fun-
cion de utilidad del ejercicio anterior para el par Poisson–Gamma. Comprobar
que se obtiene el mismo resultado que en el ejercicio 14.
19. La siguiente tabla muestra el numero de asegurados para las reclamaciones
k = 0, 1, 2, 3, 4 en una cartera de seguros de autos. Supongamos que el modelo
queda bien explicado con una verosimilitud Poisson y una distribucion a priori
gamma.
Se pide:
a) Obtener la distribucion incondicional del numero de reclamaciones.
60
Cuadro 7.3: Frecuencias observadas
Numero
de reclamacionesFrecuencias Absolutas
0 3719
1 232
2 38
3 7
4 3
5 1
Total 4000
b) Estimar mediante el metodo de los momentos los parametros de la dis-
tribucion gamma.
c) Obtener la tabla de frecuencias ajustadas.
d) Obtener una matriz A ∈M4×6 en la que el elemento aij , i = 1, 2, . . . 4; j =
1, 2, . . . , 6 sea el porcentaje de prima a aplicar (prima Bayes) en el perıodo
i con j reclamaciones, bajo un sistema de tarificacion Bonus–Malus y el
principio de prima neta.
20. El numero de reclamaciones anual, N , para un asegurado tiene la distribucion
de Poisson de parametro θ. La distribucion a priori de este parametro es la
uniforme en el intervalo (1, 3). El asegurado reclama un siniestro durante el
primer ano de vigencia de la poliza. Se pide estimar el numero de reclamaciones
en el segundo ano de la poliza,
a) Utilizando la aproximacion de Buhlmann.
b) Utilizando la aproximacion bayesiana.
Nota:Se supone independencia entre N1 y N2.
21. Sea Ni la variable aleatoria que denota el numero de reclamaciones para el
i–esimo ano de vigencia de una poliza. Ni tiene la distribucion de Poisson con
parametro θ, y θ tiene la funcion de densidad de probabilidad π(θ) = e−θ, θ > 0.
Se pide:
61
a) ¿Cual es la probabilidad incondicional Prob[N1 = 2]?
b) Determinar la distribucion predictiva Prob[N2 = d|N1 = 2] , d = 0, 1, ...
22. Dado el modelo compuesto en el que la distribucion primaria es Poisson de
parametro 5 y la distribucion secundaria es f(x) = 0,8 · 0,2x−1, x = 1, 2, . . .,
calcular, utilizando la formula de recursion de Panjer, la probabilidad de que la
cantidad total reclamada sea mayor que 4.
23. Dado el modelo compuesto en el que la distribucion primaria es geometrica con
parametro θ ∈ (0, 1) y la distribucion secundaria es exponencial con parametro
λ > 0, calcular la funcion de densidad de la cantidad total reclamada.
24. Dado el modelo compuesto en el que la distribucion primaria es logarıtmica
con parametro θ ∈ (0, 1) (f(n) = − 1log(1−θ)
θx
x , x = 1, 2, . . .) y la distribucion
secundaria es exponencial con parametro λ > 0, calcular la funcion de densidad
de la cantidad total reclamada.
25. Sean Xi, i = 1, 2, . . . , t variables aleatorias i.i.d. con funcion de densidad de
probabilidad exponencial de parametro θ. Sea la distribucion a priori de θ gam-
ma con parametros a, b positivos. Obtener las expresiones de la prima de riesgo,
colectiva y Bayes utilizando el principio de varianza.
26. Bajo las mismas condiciones del ejercicio 17 (relacion de ejercicios), obtener una
matriz A ∈ M4×6 en la que el elemento aij , i = 1, 2, . . . 4; j = 1, 2, . . . , 6 sea el
porcentaje de prima a aplicar (prima Bayes) en el perıodo i con j reclamaciones,
bajo un sistema de tarificacion Bonus–Malus y el principio de varianza.
27. Comprobar que el coeficiente de ajuste para el caso en que X siga la distribucion
exponencial con parametro 2, λ = 0,1 y c = 1,1 es aproximadamente 0.40909.
28. Calcular la probabilidad de ruina para los valores u = 10, 20, 30 si la cantidad
reclamada tiene por funcion de densidad
f(x) = e−3x +103
e−5x, x > 0.
62
Apendice
Distribuciones discretas y continuas.Nombre Funcion de probabilidad
Binomial, B(m, θ) p(x|m, θ) =(
mx
)θx(1− θ)m−x, m ∈ N , 0 ≤ θ ≤ 1
Binomial Negativa, BN(r, θ) p(x|r, θ) =(
r+x−1x
)θr(1− θ)x, r > 0, 0 ≤ θ ≤ 1
Poisson, P(θ) p(x|θ) = e−θ θx
x! , θ > 0
Gamma, Ga(a, b) f(x|a, b) = ab
Γ(b) xb−1e−ax, a > 0, b > 0
Exponencial, Exp(a) f(x|a) = ae−ax, a > 0
Beta, Be(a, b) f(x|a, b) =Γ(a+b)Γ(a)Γ(b) xa−1(1− x)b−1, a > 0, b > 0
Normal, N(θ, σ2) f(x|θ, σ) = 1σ√
2πe− (x−θ)2
2σ2 , −∞ < θ < +∞, σ > 0
Logaritmo–Normal f(x|θ, σ) = 1xσ√
2πe− (ln x−θ)2
2σ2 , −∞ < θ < +∞, σ > 0
Pareto, Par(α, c) f(x|α, c) = αcα
x1+α , 0 < α < +∞, 0 < c < +∞
Inversa Gaussiana, IG(µ, β) f(x|µ, β) = x−3/2e
− 12β
(x+ µ2
x
)
2µ−1/2K−12
(µβ
)
Kν : funcion modificada
de Bessel de tercer orden
con ındice ν
Kν(u) = 12
∫∞0
xν−1e−u2
(x+ 1
x
)
Inversa Gaussiana Generalizada,
GIG(ν, µ, β) f(x|ν, µ, β) = µ−ν x−ν−1e
− 12β
(x+ µ2
x
)
2K−12
(µβ
)
Cauchy bilateral f(x|θ, µ) = 1π
θθ2+(x−µ)2
, −∞ < µ < +∞, 0 < θ < +∞
Cauchy unilateral f(x|θ, µ) = 1π
2θθ2+(x−µ)2
, −∞ < µ < +∞, 0 < θ < +∞
64
Algunos pares de distribuciones conjugadas.
Verosimilitud, f(x|θ)Priori, π(θ)
Posteriori, π(θ|x)
x = x1, x2, ..., xn, con x = (1/t)∑t
i=1 xi
X ∼ P(θ)
θ ∼ Ga(a, b)Ga(a + t, b + tx)
X ∼ P(θ)
θ ∼ IG(µ, β)GIG
(tx− 1
2 , µ√
12βt+1 , β
2βt+1
)
X ∼ BN(r, θ)
θ ∼ Be(a, b)Be(a + tr, b + tx)
X ∼ B(m, θ)
θ ∼ Be(a, b)Be(a + tx, b + mt− tx)
X ∼ Ga(θ, ϑ)
θ ∼ Ga(a, b)Ga(a + tx, b + tϑ)
X ∼ N(θ, σ2)
θ ∼ N(a, τ2)N
(aσ2+txτ2
σ2+tτ2 , σ2τ2
σ2+tτ2
)
X ∼ Exp(θ)
θ ∼ Gaa, b)Ga(a + tx, b + t)
65
Bibliografıa
Bailey, A. (1945). A generalized theory of credibility. Proceedings of the Casualty
Actuarial Society, XXXII, 13, 13–20.
Buhlmann,H. (1967). Experience rating and credibility. Astin Bulletin,IV,Part III,199–
207.
Buhlmann,H. (1970). Mathematical Methods in Risk Theory. Springer–Verlag, New
York.
Calderın, E.; Gomez–Deniz, E. & Cabrera, I. (2007). Bayesian local robustness un-
der weighted squared–error loss function incorporating unimodality. Statistics &
Probability Letters, 77, 69–74.
Dufresne, F. & Gerber, H. (1989). Three methods to calculate the probability of ruin.
Astin Bulletin, 19, 1, 71–90.
Gerber, H. (1979). An introduction to mathematical risk theory. Huebner Foundation.
Gomez–Deniz, E.(1996). Estadıstica Bayesiana en Credibilidad con Aplicacion a la
Fijacion de Primas de Seguros. Tesis Doctoral.Departamento de Economıa Apli-
cada.Universidad de Las Palmas de Gran Canaria.
Gomez–Deniz, E.; Hernandez, A. & Vazquez, F. (1999). The Esscher premium princi-
ple in risk theory:a Bayesian sensitivity study. Insurance:Mathematics and Eco-
nomics, 25(3),387–395
Gomez,E.; Hernandez,A. & Vazquez,F. (2000). Robust Bayesian Premium Principles
in Actuarial Science. Journal of the Royal Statistical Society. The Statistician
(Series D),49,2,241–252.
Gomez–Deniz, E.; Hernandez, A. & Vazquez, F. (2002). Bounds for ratio of posterior
expectations. An application in the collective risk model. Scandinavian Actuarial
Journal, 1, 37–44.
Gomez–Deniz, E.; Perez, J.; Hernandez, A. & Vazquez, F. (2002). Measuring sensitivi-
ty in a Bonus–Malus System. Insurance: Mathematics & Economicis, 31,105–113.
66
Gomez–Deniz, E. & Vazquez, F. (2002). Modelling uncertainty in insurance Bonus–
Malus premiums principles by using a Bayesian robustness approach. Journal of
Applied Statistics, 32,7, 771–784.
Gomez–Deniz, E.; Calderın, E. & Cabrera, I. (2006). A simple method to study sen-
sitivity of BMP’s. Communications in Statistics: Theory and Methods, 35, 4,
583–591.
Gomez–Deniz, E.; Perez, J.M. & Vazquez, F.J. (2006). On the use of posterior regret
gamma–minimax actions to obtain credibility premiums. Insurance: Mathematics
and Economics, 39, 1, 115–121.
Gomez–Deniz, E.; Sarabia, J.M. & Vazquez, F.J. (2007). Robust Bayesian bonus–
malus premium under the conditional specification model. Statistical Papers (en
prensa).
Gomez–Deniz, E.; Perez, J.M. Sarabia & Vazquez, F.J. (2008).Using a Bayesian hi-
erarchical model for fitting automobile claim frequency data. Communications in
Statistics: Theory and Methods, 37, 1425–1435
Gomez–Deniz, E. (2008). A generalization of the credibility theory obtained by using
the weighted balanced loss function. Insurance: Mathematics and Economics, 42,
2, 850–854.
Heilmann,W. (1989). Decision theoretic foundations of credibility theory. Insurance:
Mathematics & Economics,8,77–95.
Herzog, T. (1996). Introduction to Credibility Theory. ACTEX Publications, Inc.
Hogg, R. & Klugman,S. (1984). Loss distributions. John Wiley & Sons.
Jewell, W. (1974). Credible means are exact Bayesian for exponential families. Astin
Bulletin, 8, 1, 77–90.
Klugman, S. (1992). Bayesian Statistics in Actuarial Science. Kluwer Academic Pub-
lisher.
Klugman, S.;Panjer, H. & Willmot, G. (1998). Loss Model From Data to Decisions.
John Wiley & Sons,INC.
Landsman, Z. & Makov. U.E. (1999). Credibility evaluation for the exponential dis-
persion family. Insurance: Mathematics & Economics 24, 23–29.
Mayerson, A.L. (1964). A Bayesian view of credibility. Proceedings of the Casualty
Actuarial Society, 51, 85–104.
Nieto, U. & Vegas, J. (1993). Matematica Actuarial. Fundacion Mapfre Estudios.
Instituto de Ciencias del Seguro. Coleccion Universitaria.
Sarabia, J.M., Gomez–Deniz, E. & Vazquez, F.J. (2006). Estadıstica Actuarial.
67
Teorıa y Aplicaciones . Editorial: Prentince Hall. Pearson
Sarabia, J.M.; Gomez–Deniz, E. & Vazquez, F.J. (2004). On the use of conditional
specification model in claim count distributions: an application to Bonus–Malus
systems. Astin Bulletin, 34, 1, 85–98.
Sarabia, J.M.; Castillo, E.; Gomez–Deniz, E. & Vazquez, F.J. (2005). A class of con-
jugate priors for log–normal claims based on conditional specification. Journal of
Risk and Insurance, 72, 3, 479–495.
Straub, E. (1992). Non life-insurance mathematics. Springer-Verlag.Association of
Swiss Actuaries.Academic Publisher.
Witney, A. (1918). The theory of experience rating. Proceedings of the Casualty Ac-
tuarial Society, 4, 274–292.
68