1. Estad´ıstica (30304007)
Grado en Criminolog´ıa y Seguridad
Departamento de Estad´ıstica e Investigaci´on Operativa
Curso 2012/13
Universidad de C´adiz
1
2. Contenidos:
(1) Fuentes de datos en criminolog´ıa
(2) Estudio descriptivo unidimensional de la actividad criminol´ogica
(3) Estudio descriptivo bidimensional de la actividad criminol´ogica
(4) Series temporales
(5) La utilizaci´on de la probabilidad en criminolog´ıa
(6) Modelos probabil´ısticos asociados a la criminolog´ıa
2
3. Cap´ıtulo 1: FUENTES DE DATOS EN CRIMINOLOG´IA
1.1.-Introducci´on
1.2.-Diversas fuentes de datos
3
5. .
Without statistics, conducting research about crime
and justice would be virtually impossible (Weisburd, D.
& Britt, Ch. (2007). Statistics in Criminal Justice (Third
edition), New York: Springer)
Disponer de una buena informaci´on estad´ıstica y usarla
de una manera intensiva y eficiente es una necesidad
ineludible para la mejora de la gesti´on de la Justicia. Es
tambi´en una obligaci´on de cara a la sociedad a la que se
debe rendir cuenta de su funcionamiento (Problemas
de la Estad´ıstica Judicial y propuestas de actuaci´on. Consejo
General del Poder Judicial)
La subestimaci´on de la informaci´on emp´ırica y, en par-
ticular, de la informaci´on estad´ıstica est´a todav´ıa muy
arraigada en la tradici´on jur´ıdica (Benito y Ben´ıtez de
Lugo, J.L. de & Pastor Prieto, S. (2001). La Estad´ıstica
como instrumento de la Pol´ıtica Judicial en Los proble-
mas de la investigaci´on emp´ırica en criminolog´ıa: La situaci´on
espa˜nola, Valencia: Tirant Lo Blanch)
5
6. .
La palabra estad´ıstica suele emplearse con dos significa-
dos distintos:
estad´ısticas , en plural y, generalmente, escrita en min´us-
culas, indicando colecciones de datos num´ericos presen-
tados de forma ordenada y sistem´atica.
Estad´ıstica , en singular y, quiz´as escrita en may´uscu-
las, ciencia que estudia el comportamiento de los fen´ome-
nos llamados de colectivo.
Las estad´ısticas reflejan el conocimiento de las institucio-
nes oficiales sobre determinados asuntos. Este conocimien-
to es, fundamentalmente, num´erico. Por tanto el an´alisis
estad´ıstico nos proporciona, en general, un m´etodo cuan-
titativo para el an´alisis de aquellas situaciones que puedan
ser de nuestro inter´es.
Pueden realizarse estad´ısticas por instancias privadas, sin
embargo las m´as representativas son las oficiales.
6
8. Fuentes internacionales:
(a) Organismos e instituciones internacionales que ofrecen
exclusivamente informaci´on sobre alg´un aspecto de la jus-
ticia: Bureau of Justice Statistics (BJS)
(b) Organismos e instituciones internacionales que ofrecen
informaci´on de diferentes sectores, entre ellos el judicial:
Research Development and Statistics (RDS), Organizaci´on
de las Naciones Unidas (UN)
(c) Organismos y oficinas estad´ısticas que ofrecen todo ti-
po de informaci´on: Oficina Estad´ıstica de las Comunidades
Europeas (EUROSTAT),
8
9. BJS
(Bureau of Justice Statistics)
(http://www.ojp.usdoj.gov/bjs/)
Tiene como misi´on recoger, analizar, publicar y divulgar
informaci´on sobre el crimen, el delincuente, las v´ıctimas, y
las diferentes operaciones de los sistemas de justicia
9
13. UN
(Organizaci´on de las Naciones Unidas)
(http://www.un.org/spanish/)
(Derecho Internacional) Página 1 de 1
Entre los ´Organos Principales de la ONU se encuentra la
Corte Internacional de Justicia que ser´a el ´organo judicial
principal de las Naciones Unidas (Art´ıculo 92 de la Carta
de las Naciones Unidas)
13
15. EUROSTAT
(Oficina Estad´ıstica de las Comunidades Europeas)
(http://epp.eurostat.ec.europa.eu/portal/page/
portal/eurostat/home/)
(Populations and social conditions Crime and criminal
justice)
La mision de Eurostat consiste en proporcionar un
servicio de informaci´on estad´ıstica de alta calidad a la
Uni´on Europea
15
17. Fuentes nacionales:
(a) Fuentes que ofrecen informaci´on jur´ıdica relacionada
con el estudio y la investigaci´on del sector: Consejo general
del Poder Judicial (CGPJ)
(b) Fuentes que ofrecen todo tipo de informaci´on estad´ısti-
ca: Instituto Nacional de Estad´ıstica de Espa˜na (INE), Ins-
tituto de Estad´ıstica de Andaluc´ıa (IEA)
17
18. CGPJ
(Consejo General del Poder Judicial)
(http://www.poderjudicial.es/eversuite/)
(Consejo General del Poder Judicial Estad´ıstica)
CENTRO DE DOCUMENTACIÓN JUDICIAL
CONSEJO GENERAL DEL PODER JUDICIAL
Disponer de una buena informaci´on estad´ıstica y usarla
de una manera intensiva y eficiente es una necesidad
ineludible para la mejora de la gesti´on de la Justicia. Es
tambi´en una obligaci´on de cara a la sociedad a la que se
debe rendir cuenta de su funcionamiento
18
20. INE
(Instituto Nacional de Estad´ıstica de Espa˜na)
(http://www.ine.es/)
(Sociedad Seguridad y Justicia)
Le corresponde la investigaci´on, desarrollo,
perfeccionamiento y aplicaci´on de la metodolog´ıa
estad´ıstica, en el marco del Plan Nacional de Investigaci´on
Cient´ıfica y Desarrollo Tecnol´ogico
20
22. IEA
(Instituto de Estad´ıstica de Andaluc´ıa)
(http://www.juntadeandalucia.es/
institutodeestadisticaycartograf ia/)
(Sociedad Justicia)
9
Instituto de Estadística de Andalucía
CONSEJERÍA DE ECONOMÍA Y HACIENDA
Andalucía y su población
Unión Eu
Fondo So
Es el responsable de la actividad estad´ıstica de la
Comunidad Aut´onoma de Andaluc´ıa
22
24. SEIC
(Sociedad Espa˜nola de Investigaci´on Criminol´ogica)
(http://www.criminologia.net)
ESTATUTOS DE LA SEIC
Capítulo I. Denominación, fines, domicilio y ámbito
Capítulo II. Órganos de la asociación
Capítulo III. Asamblea general
Capítulo VI. Socios
Capítulo V. Recursos económicos
Capítulo VI. Disolución
Capítulo I. Denominación, fines, domicilio y ámbito
Artículo 1. Con la denominación de SOCIEDAD ESPAÑOLA
CRIMINOLÓGICA se constituye una Asociación que se acoge a lo dis
de 24 de Diciembre y normas complementarias del Decreto 14
careciendo de ánimo de lucro y por tiempo indefinido.
Artículo 2. La Asociación gozará de personalidad jurídica propia
asociados y su régimen se regirá por lo establecido en los prese
acuerdos adoptados por sus Órganos de Gobierno.
Esta asociaci´on tiene como fin, entre otros, el promover
la investigaci´on y los estudios criminol´ogicos tanto en el
´ambito acad´emico como en el institucional y en aquellos
otros que tengan inter´es en esta ´area de conocimiento
24
26. Otras webs de informaci´on criminol´ogica y judicial:
(a) Instituto de Criminolog´ıa de la Universidad de Cambrid-
ge
(b) Centro de Criminolog´ıa de la Universidad de Oxford
(c) Instituto Australiano de Criminolog´ıa
(d) Sociedad Brit´anica de Criminolog´ıa
26
27. SEIC
(Instituto de Criminolog´ıa de la Universidad de Cambridge)
(http://www.crim.cam.ac.uk)
M.St. in Applied Criminology, Penology and Manageme
Alumni Event 13 September 2012
Delegate Registration Form
Fee £60 (This includes the dinner and event attendance)
First name: Last name:
Telephone: Email:
Correspondence address:
Fundado hace 50 a˜nos fu´e uno de los primeros Institutos
Criminol´ogicos de Europa. Alberga la biblioteca
Radzinowicz que contiene la m´as extensa colecci´on de
criminolog´ıa del Reino Unido.
27
29. SEIC
(Centro de Criminolog´ıa de la Universidad de Oxford)
(http://www.crim.ox.ac.uk/Links/index.htm)
Emerging ACE Data: Further Analysis of
Needs and Risk
Simon Merrington
KEY POINTS
1. This bulletin provides a similar analysis of criminogenic needs to the one in
Bulletin 1, but for a much larger sample of cases - over 10,000. These are
all initial assessments, the great majority having been completed at PSR
stage.
2. ACE indicates a fairly similar pattern of problems and offending-related
problems across the country, in rural, urban and metropolitan areas. The
pattern of problems is also remarkably similar to the one provided two years
previously by Bulletin 1. It suggests that ACE is a stable assessment tool,
and that risk factors do not vary greatly between areas.
3. The data suggests that programmes such as Think First which target
impulsiveness, poor reasoning skills, difficulties with control over one's
actions, and poor victim awareness, should be extremely valuable. Not only
are these problems frequently judged to be offending-related, they were
also found in HORS 211 to be good predictors of reconviction.
4. Another group of problems are also frequently judged to be offending-
Probation Studies Unit
ACE Practitioner Bulletin 4
November 2001
Emerging ACE Data: Further Analysis of
Needs and Risk
Simon Merrington
KEY POINTS
1. This bulletin provides a similar analysis of criminogenic needs to the one in
Bulletin 1, but for a much larger sample of cases - over 10,000. These are
all initial assessments, the great majority having been completed at PSR
stage.
2. ACE indicates a fairly similar pattern of problems and offending-related
problems across the country, in rural, urban and metropolitan areas. The
pattern of problems is also remarkably similar to the one provided two years
previously by Bulletin 1. It suggests that ACE is a stable assessment tool,
and that risk factors do not vary greatly between areas.
3. The data suggests that programmes such as Think First which target
impulsiveness, poor reasoning skills, difficulties with control over one's
actions, and poor victim awareness, should be extremely valuable. Not only
are these problems frequently judged to be offending-related, they were
also found in HORS 211 to be good predictors of reconviction.
4. Another group of problems are also frequently judged to be offending-
related: the offender's own lifestyle, friends causing a risk, drugs and
alcohol. HORS 211 found that the first three were good reconviction
predictors. It is less clear how probation can effectively address lifestyle
and peer influence problems, but the need for drugs and alcohol
programmes is well accepted.
5. Finances were also among the most frequent offending-related problems,
and this too was a good predictor in HORS 211. There was surprisingly
little regional variation in the assessed problem level, but more variation in
financial status with 72% dependent on state benefits in Northumbria but
Probation Studies Unit
ACE Practitioner Bulletin 4
November 2001
Institute of Criminology
Centre for Criminology
University of Oxford
Institute of Criminology
Centre for Criminology
University of OxfordInstitute of Criminology
Centre for Criminology
University of OxfordEs uno de los centros de criminolog´ıa m´as destacados del
Reino Unido. Realiza publicaciones de sus investigaciones
de gran calidad.
29
31. AIC
(Instituto Australiano de Criminolog´ıa)
(http://www.aic.gov.au/en/statistics.aspx)
ds
uesminal justice
Financing of terrorism:
Es el centro nacional australiano de investigaci´on en
criminolog´ıa y justicia.
31
33. BSC
(Sociedad Brit´anica de Criminolog´ıa)
(http://www.britsoccrim.org/links.htm)
Volume 9, 2009
www.britsoccrim.org/conferences.htm
Se propone fomentar el conocimiento tanto del personal
acad´emico como profesional que est´an ligados de alguna
forma por trabajo o ense˜nanza, investigaci´on o educaci´on
p´ublica sobre el crimen, el comportamiento criminal y los
sistemas de justicia criminal en el Reino Unido.
33
37. Se conocen como variables estad´ısticas a las caracter´ısticas
que poseen los elementos de una poblaci´on y que van a ser
objeto de estudio estad´ıstico.
Ejemplo 1 Sea la poblaci´on formada por los 4543 jueces
y magistrados en los diferentes ´organos judiciales que for-
maban la plantilla a 1 de enero de 2007 (seg´un datos del
CGPJ).
37
38. Las variables a analizar pueden ser de tres tipos:
Cualitativas ´o atributos: no expresables num´ericamente
(Ejemplo: Comunidad Aut´onoma de destino )
Ordinales: sus valores pueden ser ordenados (Ejemplo:
Satisfacci´on con la actual pol´ıtica judicial )
Cuantitativas: pueden ser expresadas num´ericamente.
Las variables cuantitativas se subdividen en:
(i) Cuantitativas Discretas, si el conjunto de sus po-
sibles valores tiene cardinal finito o infinito numerable
(Ejemplo: N´umero de expedientes resueltos durante el
a˜no 2006 )
(ii) Cuantitativas Continuas, si pueden tomar los infini-
tos valores de un intervalo (Ejemplo: Antig¨uedad en el
cuerpo )
38
39. Las variables estad´ısticas suelen representarse con letras
may´usculas del final del alfabeto: X, Y , Z, ... Los valores
que toman (datos) los escribiremos con letras min´usculas:
x1, x2, x3, ... ; y1, y2, y3, ... ´o z1, z2, z3, ...
Ejemplo 2
X= N´umero de expedientes resueltos durante el a˜no
2006 por cada uno de los 4543 jueces y magistrados en
los diferentes ´organos judiciales que formaban la plantilla
a 1 de enero de 2007
x1= 206 expedientes, x2= 124 expedientes, · · · x4543=
338 expedientes.
39
40. .
Distribuciones de frecuencias
A partir de un conjunto de datos queremos clasificarlos de
modo que la informaci´on contenida en ellos quede presen-
tada de forma clara, concisa y ordenada. Si representamos
por N al n´umero total de datos, se conoce como frecuencia:
(a) Absoluta del valor xi, al n´umero de veces que se pre-
senta dicho valor en el conjunto de datos. Se representa
por ni.
(b) Absoluta acumulada del valor xi, al n´umero de datos
que hay iguales o inferiores a xi. Se representa por Ni.
(c) Relativa del valor xi, al cociente
ni
N
. Se representa por
fi.
(d) Relativa acumulada del valor xi, al cociente
Ni
N
. Se re-
presenta por Fi.
40
41. Llamaremos distribuci´on de frecuencias al conjunto de los
valores que presenta una variable estad´ıstica junto con sus
frecuencias. En general, escribiremos {(xi; ni)}i=1,2,...,k, don-
de ni es la frecuencia absoluta del valor xi y N =
k
i=1
ni es
la frecuencia total.
Para presentar los resultados se acostumbra a usar la lla-
mada tabla estad´ıstica, de la forma siguiente:
li−1 − li ni xi ci
l0 − l1 n1 x1 c1
l1 − l2 n2 x2 c2
... ... ... ...
lk−1 − lk nk xk ck
siendo xi =
li−1 + li
2
, la marca de clase ´o valor ideal del
intervalo, y ci = li − li−1 , la amplitud del intervalo.
41
42. Observaciones:
(a) El agrupamiento de los datos da lugar a cierta p´erdida
de informaci´on pero con ello se gana en manejabilidad
de los mismos.
(b) El n´umero de intervalos y las amplitudes de los mismos
deben ser escogidos convenientemente.
(c) En la pr´actica, es frecuente la elecci´on de intervalos
de amplitud constante, ya que con ello se facilita el
c´alculo de la mayor´ıa de las caracter´ısticas descriptivas
que analiza la estad´ıstica. Un criterio emp´ırico consiste
en considerar como n´umero de intervalos, k, el dado
por la f´ormula de Sturges, k = 1 + [3,3log10N], donde [x]
denota la parte entera de x.
42
43. Ejemplo 3 Sea la variable
X= N´umero de penados en los diferentes Centros Peni-
tenciarios espa˜noles, en el a˜no 2006
x1 = 1475 penados (A Lama, Pontevedra)
x2 = 299 penados (Albacete)
x3 = 1707 penados (Albolote)
...
x77 = 1400 penados (Villabona)
(Fuente: Anuario Estad´ıstico del Ministerio del Interior. 2006)
(k = 1 + [3,3log1077] = 1 + [6,2254] = 7)
min{xi} = 61 (Sta. Cruz de la Palma);
max{xi} = 2466 (Valencia)
c =
2466 − 61
7
= 343,5714 ≈ 360
43
44. li−1 − li xi ni Ni fi Fi
0 − 360 180 22 22 0,2857 0,2857
360 − 720 540 21 43 0,2727 0,5584
720 − 1080 900 8 51 0,1039 0,6623
1080 − 1440 1260 9 60 0,1169 0,7792
1440 − 1800 1620 13 73 0,1688 0,9480
1800 − 2160 1980 3 76 0,0390 0,9870
2160 − 2520 2340 1 77 0,0130 1
T otales N = 77 1
44
45. Representaciones gr´aficas
Consiste en presentar, a golpe de vista, el comportamiento
de la distribuci´on. Se usan como complemento del traba-
jo estad´ıstico, y a veces, como punto de partida para un
posterior an´alisis.
Tipos de gr´aficos:
(a) Para variables cualitativas preferentemente: basan su
construcci´on en establecer proporcionalidad entre ´areas
y frecuencias.
45
46. Ejemplo 4 Se considera el estudio de la variable lugar de
procedencia de los condenados en Espa˜na durante el a˜no
2008
Lugar de procedencia N´umero de condenados (ni)
Espa˜na 137 872
Resto de Uni´on Europea 17 174
Resto de Europa 1 894
Resto del Mundo 39 040
N = 195 980
(Fuente: Explotaci´on del INE del Registro Central de Penados)
46
47. Ejemplo 4a Diagrama de sectores:
Procedencia de los condenados en España durante el año 2008
España
Resto de Unión Europea
Resto de Europa
Resto del mundo
70,35%
8,76%
0,97%
19,92%
47
48. Ejemplo 4b Diagrama de rect´angulos:
Procedencia de los condenados en España durante el año 2008
0
3
6
9
12
15
(X 10000)
España
RestodeUniónEuropea
RestodeEuropa
Restodelmundo
48
49. (b) Para variables cuantitativas: Se realizan mediante un
sistema de ejes cartesianos representando en el eje de
abcisas los valores de la variable y en el de ordenadas
las frecuencias correspondientes.
49
50. Ejemplo 5 Se pretende estudiar la variable edad de la
poblaci´on reclusa penada en enero de 2010
li−1 − li ni ci hi
18 − 21 638 3 0, 00357
21 − 26 7 226 5 0, 02426
26 − 31 12 450 5 0, 04180
31 − 41 20 694 10 0, 03474
41 − 61 17 035 20 0, 01429
61 − 70 1 523 9 0, 00284
N = 59 566
hi =
ni
Nci
Fuente: Ministerio del Interior. Secretar´ıa General de Instituciones
Penitenciarias
50
52. Ejemplo 6 Pol´ıgono de frecuencias (S´olo para intervalos
de igual amplitud). Consideremos la variable edad de una
muestra correspondiente a 91 casos de alcoholemias posi-
tivas detectados por la Polic´ıa Local de Estepona en el a˜no
2003
li−1 − li ni ci hi
15 − 25 17 10 0, 01868
25 − 35 28 10 0, 03077
35 − 45 22 10 0, 02417
45 − 55 18 10 0, 01978
55 − 65 5 10 0, 00549
65 − 75 1 10 0, 00109
N = 91
hi =
ni
Nci
FUENTE: Bolet´ın Criminol´ogico. Instituto andaluz interuniversitario
de Criminolog´ıa. N´umero 80, junio-julio 2005
52
54. .
Medidas de posici´on
Son valores que pretenden resumir las caracter´ısticas b´asi-
cas de la informaci´on disponible.
(a) Media aritm´etica: x =
k
i=1
xini
N
=
k
i=1
xifi
(b) Mediana: Me = li−1 +
N
2
− Ni−1
Ni − Ni−1
· ci
(c) Percentiles: Qr/k = li−1 +
r
k
· N − Ni−1
Ni − Ni−1
· ci
54
55. Ejemplo 7 (Datos correspondientes al Ejemplo 3)
li−1 − li xi ni Ni xini
0 − 360 180 22 22 3960
360 − 720 540 21 43 11340
720 − 1080 900 8 51 7200
1080 − 1440 1260 9 60 11340
1440 − 1800 1620 13 73 21060
1800 − 2160 1980 3 76 5940
2160 − 2520 2340 1 77 2340
T otales N = 77 63180
(a) x = 820,5195 penados (b) Me = 642,8571 penados
(c) Q70/100 = 1196 penados
55
56. .
Medidas de dispersi´on
Se entiende por dispersi´on estad´ıstica a la mayor o me-
nor separaci´on de los valores (datos) respecto a otro que
pretende ser la s´ıntesis de ellos.
(a) Varianza: s2 =
k
i=1
(xi − x)2 ·
ni
N
=
k
i=1
x2
i ·
ni
N
− x2
(a’) A veces se usa tambi´en la cuasivarianza, definida por:
s2
c =
k
i=1
(xi − x)2 ·
ni
N − 1
. Evidentemente: s2 =
N − 1
N
· s2
c
(b) Desviaci´on t´ıpica: s = +
√
s2 = +
k
i=1
x2
i ·
ni
N
− x2
(c) Coeficiente de variaci´on de Pearson: V =
s
|x|
56
57. Ejemplo 8 (Datos correspondientes al Ejemplo 3)
li−1 − li xi ni xini x2
i ni
0 − 360 180 22 3960 712800
360 − 720 540 21 11340 6123600
720 − 1080 900 8 7200 6480000
1080 − 1440 1260 9 11340 14288400
1440 − 1800 1620 13 21060 34117200
1800 − 2160 1980 3 5940 11761200
2160 − 2520 2340 1 2340 5475600
T otales N = 77 63180 78958800
(a) s2 = 352 186,7431 penados2 (b) s2
c = 356 820,7792 penados2
(c) s = 593,4532 penados (d) V = 0,7233
57
58. Cap´ıtulo 3: ESTUDIO DESCRIPTIVO BIDIMENSIONAL
DE LA ACTIVIDAD CRIMINOL ´OGICA
3.1.-Introducci´on
3.2.-Independencia de variables estad´ısticas
3.3.-Enunciado del problema
3.4.-Regresi´on lineal
3.5.-Correlaci´on
58
60. La mayor´ıa de las variables que interesan en el mundo cri-
minol´ogico suelen estar relacionadas entre s´ı, en mayor o
menor medida. Una vez que hemos realizado el estudio
de las distribuciones unidimensionales, obtenidas al estu-
diar una determinada caracter´ıstica sobre los elementos de
una poblaci´on, nos disponemos ahora a introducir las dis-
tribuciones bidimensionales, que surgen cuando analizamos
simult´aneamente dos caracter´ısticas sobre cada elemento
de la poblaci´on.
Como ejemplo podemos considerar el gasto en actividades
de ocio de un centro penitenciario y el n´umero de reinci-
dencias de sus internos, ´o el grado de calidad de sus insta-
laciones y el grado de conflictividad, etc.
60
61. Supongamos que tenemos una poblaci´on cuyos elementos
son clasificados seg´un dos caracter´ısticas cuantitativas, que
llamaremos X e Y . Sus diferentes valores los represen-
taremos por xi e yj, respectivamente, con i = 1, 2, ..., k y
j = 1, 2, ..., h.
Se denomina distribuci´on bidimensional de frecuencias al
conjunto de valores {(xi, yj; nij)} i = 1, 2, ..., k
j = 1, 2, ..., h
, donde nij es la
frecuencia absoluta conjunta del par (xi, yj) y N =
k
i=1
h
j=1
nij
es la frecuencia total.
61
62. Para disponer los resultados podemos usar la llamada tabla
de correlaci´on, que es una tabla de doble entrada como la
siguiente:
yj
xi
y1 y2 · · · yj · · · yh ni·
x1 n11 n12 · · · n1j · · · n1h n1·
x2 n21 n22 · · · n2j · · · n2h n2·
... ... ... · · · ... · · · ... ...
xi ni1 ni2 · · · nij · · · nih ni·
... ... ... · · · ... · · · ... ...
xk nk1 nk2 · · · nkj · · · nkh nk·
n·j n·1 n·2 · · · n·j · · · n·h N
donde ni· =
h
j=1
nij ; n·j =
k
i=1
nij ; N =
k
i=1
ni· =
h
j=1
n·j
62
63. .
Observaciones:
(a) Si dividimos cada frecuencia de la tabla anterior en-
tre el n´umero total de elementos observados, N, ob-
tendr´ıamos una nueva tabla, semejante a la primera,
salvo que reflejar´ıa las proporciones o frecuencias rela-
tivas. Llamaremos fij a la frecuencia relativa conjunta
del par (xi, yj), fij =
nij
N
. An´alogamente se definicionnen
las frecuencias relativas marginales fi· =
ni·
N
=
h
j=1
fij y
f·j =
n·j
N
=
k
i=1
fij
(b) Como en el caso unidimensional, las distribuciones bidi-
mensionales pueden venir expresadas con valores de la
variable agrupados en intervalos o sin agrupar. Tambi´en
puede ocurrir que las caracter´ısticas en estudio tengan
distinta naturaleza.
63
64. Ejemplo 9 Un crimin´ologo est´a interesado en encontrar
la posible relaci´on existente entre la edad en la que un
delincuente juvenil comete su primer delito y su posterior
actividad criminal en la vida de adulto.
Concretamente est´a interesado en encontrar explicaciones
al n´umero de arrestos en edad adulta, Y , conociendo la edad
del primer arresto juvenil, X.
Los datos recogidos se presentan en la tabla siguiente:
xi 14 12 15 13 16 17 13 15 16 16 17 16
yj 5 3 4 5 0 1 2 0 2 1 0 1
FUENTE: Datos no reales tomados de Elementary Statistics in Criminal
Justice Research
64
65. Escribiendo los datos en forma de una tabla de correlaci´on,
nos queda:
yj
xi
0 1 2 3 4 5 ni·
12 0 0 0 1 0 0 1
13 0 0 1 0 0 1 2
14 0 0 0 0 0 1 1
15 1 0 0 0 1 0 2
16 1 2 1 0 0 0 4
17 1 1 0 0 0 0 2
n·j 3 3 2 1 1 2 N = 12
65
66. .A veces interesa estudiar aisladamente cada una de las va-
riables. De esta forma obtendr´ıamos dos distribuciones uni-
dimensionales, que ser´ıan las correspondientes a cada una
de las variables X e Y . A estas distribuciones se les llama
distribuciones marginales.
La distribuci´on marginal de X es la distribuci´on que sigue la
variable X independientemente de los valores de la variable
Y .
xi ni· fi·
x1 n1· f1·
x2 n2· f2·
... ... ...
xi ni· fi·
... ... ...
xk nk· fk·
N 1
donde ni· =
h
j=1
nij y fi· =
ni·
N
son, respectivamente, las frecuen-
cias absolutas y relativas margi-
nales de la variable X, con i =
1, 2, ..., k.
66
67. An´alogamente se define la distribuci´on marginal de Y .
La distribuci´on marginal de Y es la distribuci´on que sigue la
variable Y independientemente de los valores de la variable
X.
yj n·j f·j
y1 n·1 f·1
y2 n·2 f·2
... ... ...
yj n·j f·j
... ... ...
yh n·h f·h
N 1
donde n·j =
k
i=1
nij y f·j =
n·j
N
son, respectivamente, las frecuen-
cias absolutas y relativas margi-
nales de la variable Y , con j =
1, 2, ..., h.
67
68. Las distribuciones marginales correspondientes a los datos
recogidos en el Ejemplo 9, son:
xi ni· fi·
12 1 0,083
13 2 0,16
14 1 0,083
15 2 0,16
16 4 0.3
17 2 0,16
N = 12 1
yj n·j f·j
0 3 0,25
1 3 0,25
2 2 0,16
3 1 0,083
4 1 0,083
5 2 0,16
N = 12 1
68
69. Otro tipo de distribuciones unidimensionales que se obtie-
nen a partir de las bidimensionales son las distribuciones
condicionadas. Son distribuciones que se obtienen mante-
niendo fijo un valor en una de las variables y considerando
los valores que toma la otra con sus respectivas frecuencias.
La distribuci´on condicionada de X respecto de Y = yj es
la distribuci´on que sigue la variable X cuando la variable Y
toma el valor yj.
69
70. xi/Y = yj ni/j fi/j
x1 n1j f1/j
x2 n2j f2/j
... ... ...
xi nij fi/j
... ... ...
xk nkj fk/j
n·j 1
Se han escrito las frecuencias condi-
cionadas absolutas como ni/j (= nij)
y las frecuencias condicionadas rela-
tivas como fi/j =
nij
n·j
(proporci´on de
valores, entre los que Y = yj, para
los cuales X = xi, con i = 1, 2, ..., k).
Obs´ervese que las frecuencias de la
distribuci´on X/Y = yj son las corres-
pondientes a la j-´esima columna de la
tabla de correlaci´on.
70
71. De forma an´aloga se obtiene la distribuci´on condicionada
de Y respecto de X = xi, distribuci´on de los valores de Y
cuando X toma el valor xi.
La distribuci´on condicionada de Y respecto de X = xi es
la distribuci´on que sigue la variable Y cuando la variable X
toma el valor xi.
71
72. yj/X = xi nj/i fj/i
y1 ni1 f1/i
y2 ni2 f2/i
... ... ...
yj nij fj/i
... ... ...
yh nih fh/i
ni· 1
Se han escrito las frecuencias condi-
cionadas absolutas como nj/i (= nij)
y las frecuencias condicionadas rela-
tivas como fj/i =
nij
ni·
(proporci´on de
valores, entre los que X = xi, para
los cuales Y = yj, con j = 1, 2, ..., h).
Obs´ervese que las frecuencias de la
distribuci´on Y/X = xi son las corres-
pondientes a la i-´esima fila de la tabla
de correlaci´on.
72
75. Diremos que X e Y dependen funcionalmente si podemos
establecer una aplicaci´on que nos transforme los valores de
una de las variables en los de la otra.
Diremos que X e Y dependen estad´ısticamente cuando la
variaci´on de una de las variables influye en la distribuci´on
de la otra.
75
76. Diremos que las variables X e Y son estad´ısticamente in-
dependientes si para todo (i, j) se verifica que
fij = fi·f·j
Si la igualdad no se verifica para alg´un par (i, j), diremos
que las variables son estad´ısticamente dependientes.
Para las variables X e Y del Ejemplo 9, como se verifica
que: f14 =
1
12
= f1·f·4 =
1
12
·
1
12
, deducimos que X e Y no
pueden considerarse independientes.
76
78. Para medir la asociaci´on lineal entre dos variables, X e Y ,
se definicionne la covarianza como:
sXY =
k
i=1
h
j=1
(xi − x)(yj − y) ·
nij
N
=
k
i=1
h
j=1
xiyj ·
nij
N
− x · y
78
79. .
Si seguimos utilizando los datos del Ejemplo 9, para calcular
la sXY procedemos de la forma siguiente:
yj
xi
0 1 2 3 4 5 ni· xini·
h
j=1
xiyjnij
12 0 0 0 1 0 0 1 12 36
13 0 0 1 0 0 1 2 26 91
14 0 0 0 0 0 1 1 14 70
15 1 0 0 0 1 0 2 30 60
16 1 2 1 0 0 0 4 64 64
17 1 1 0 0 0 0 2 34 17
n·j 3 3 2 1 1 2 N = 12 180 338
yjn·j 0 3 4 3 4 10 24
y, por tanto, sXY =
k
i=1
h
j=1
xiyj ·
nij
N
− x · y =
338
12
−
180
12
·
24
12
=
= −1,83
79
80. Cuando X e Y var´ıan conjuntamente de forma lineal, gr´afi-
cas (A) y (B), la covarianza ser´a alta. Cuando no exista
relaci´on entre X e Y , gr´afica (C), o exista una relaci´on
marcadamente no lineal, gr´afica (D), la covarianza ser´a ce-
ro.
(A) (B) (C) (D)
X
Y
0 4 8 12 16 20
3
5
7
9
11
X
Y
0 4 8 12 16 20
2,5
4,5
6,5
8,5
10,5
X
Y
0 4 8 12 16 20
3
5
7
9
11
X
Y
0 10 20 30 40
0
4
8
12
16
20
24
80
81. Si sXY > 0 ⇒ X e Y var´ıan de forma lineal en el mismo
sentido y diremos que hay asociaci´on lineal directa, (A).
Si sXY < 0 ⇒ X e Y var´ıan de forma lineal en sentido
opuesto, y presentan asociaci´on lineal inversa, (B).
Cuando sXY = 0, es decir haya ausencia de asociaci´on lineal,
diremos que las variables X e Y son incorreladas.
81
82. Como en nuestro ejemplo sXY = −1,83, podemos concluir
que las variables X e Y var´ıan de forma lineal en sentido
opuesto, y presentan asociaci´on lineal inversa.
La representaci´on gr´afica nos confirma esta conclusi´on:
12 13 14 15 16 17
0
1
2
3
4
5
82
84. La regresi´on tiene por objeto poner de manifiesto, a par-
tir de la informaci´on de que se disponga, la estructura de
dependencia que mejor explique el comportamiento de una
variable Y (variable dependiente o explicada) a trav´es de
un conjunto de variables X1, X2, . . . , Xp (variables indepen-
dientes o explicativas), con las que se supone que est´a re-
lacionada.
El caso que nos disponemos a estudiar es el m´as senci-
llo, utiliza una sola variable explicativa, y se conoce como
Regresi´on Simple.
84
85. Una vez confirmado que la observaci´on de la nube de puntos
nos indica una cierta estructura de dependencia lineal entre
nuestros datos, la recta de regresi´on de Y sobre X es:
y = a + bx
b =
sXY
s2
X
a = y − bx
Por tanto, la ecuaci´on de la recta que nos explicar´a el com-
portamiento de la variable Y conocido el de la X, puede ser
expresada como sigue:
rY/X ≡ y = y −
sXY
s2
X
· x
a
+
sXY
s2
X
b
·x
85
86. Ejemplo 10 Los datos que han dado lugar a la nube de
puntos
X
Y
0 4 8 12 16 20
3
5
7
9
11
proporcionan los valores siguientes:
x = 10,4104; y = 3,1791; sXY = 8,5085; s2
X = 29,3501
86
87. Por tanto, la ecuaci´on de la recta que nos explicar´a el com-
portamiento de la variable Y conocido el de la X, recta de
regresi´on de Y sobre X, es:
rY/X ≡ y = a + bx = y −
sXY
s2
X
· x +
sXY
s2
X
· x
rY/X ≡ y = 0,1611 + 0,2898x
X
Y
0 4 8 12 16 20
3
5
7
9
11
87
89. La regresi´on nos ha proporcionado la forma funcional de la
relaci´on entre dos variables. Pero es necesario analizar tam-
bi´en la intensidad de esa relaci´on. El objetivo de la correla-
ci´on es estudiar el grado de asociaci´on existente entre las
variables, es decir, proporcionar unos coeficientes que nos
midan el grado de dependencia mutua entre las variables.
Diremos que la dependencia es perfecta o que existe una
dependencia funcional entre las variables si todos los pun-
tos del diagrama de dispersi´on se encuentran sobre la l´ınea
de regresi´on.
Lineal intensa Lineal d´ebil Lineal perfecta
X
Y
0 4 8 12 16 20
3
4
5
6
7
8
9
X
Y
0 4 8 12 16 20
2,5
4,5
6,5
8,5
10,5
X
Y
0 2 4 6 8 10 12 14 16 18 20
3,6
5,6
7,6
9,6
89
90. .
Cu´anto m´as lejos se encuentren dichos puntos de la l´ınea
de regresi´on, menor ser´a la intensidad de la dependencia
entre las variables consideradas.
T
E
¨¨
¨¨¨
¨¨¨
¨¨¨¨
¨¨¨
¨¨¨
¨¨¨
¨¨¨¨
xi
ej
Valor te´orico → y∗
j
Valor observado → yj
X
Y
•
•
•
•
•
•
•
•
*
•
Toda l´ınea de regresi´on debe ir acompa˜nada de una medida
de la bondad ´o representatividad .
90
91. .
La varianza residual es el coeficiente que mide la variabilidad
de los residuos o errores y viene dada por la expresi´on
s2
rY
=
k
i=1
h
j=1
(yj − y∗
j )2 ·
nij
N
=
k
i=1
h
j=1
e2
j ·
nij
N
siendo los valores ej = yj − y∗
j los residuos o errores.
(a) Valores grandes de s2
rY
indican que, en promedio, los
errores ej = yj − y∗
j son grandes, y como consecuencia,
la l´ınea de regresi´on es poco representativa.
(b) Valores peque˜nos de s2
rY
indicar´ıan que, en promedio, los
errores ej = yj − y∗
j son peque˜nos, y por tanto, la l´ınea
de regresi´on es representativa. La m´axima representa-
tividad se tiene si ej = 0 para todo j, es decir, cuando
s2
rY
= 0, que es el m´ınimo valor que la varianza residual
puede alcanzar.
91
92. .
La varianza residual tiene el inconveniente de que depende
de las unidades de medida al cuadrado. Esto hace que no
sea posible comparar el grado de dependencia entre grupos
de variables expresadas en distintas unidades de medida.
Necesitamos por tanto una medida adimensional.
Se define el coeficiente de determinaci´on como
R2 = 1 −
s2
rY
s2
Y
Al estar R2 definido por cociente entre varianzas es un
par´ametro independiente de las unidades de medida. Es-
to nos permitir´a comparar resultados entre las asociaciones
de diferentes grupos de variables.
Otra ventaja de este coeficiente es que su rango de va-
riaci´on es acotado, 0 ≤ R2 ≤ 1, ya que se verifica que
0 ≤ s2
rY
≤ s2
Y .
92
93. .
(a) Si el ajuste es perfecto, es decir, todos los puntos del
diagrama de dispersi´on se sit´uan sobre la curva calculada
(s2
rY
= 0), entones R2 = 1.
(b) Cuanto mayor sea la distancia de los puntos a la cur-
va, mayor es s2
rY
y menor R2. El valor m´ınimo de ´este,
R2 = 0, se alcanza cuando s2
rY
= s2
Y , en cuyo caso no
se consigue ninguna explicaci´on de la variable Y rela-
cion´andola con la X mediante la curva considerada.
Cuando el coeficiente de determinaci´on vale como m´ınimo
0,75, el modelo ajustado suele aceptarse. Si el coeficiente
es inferior a dicho valor, concluiremos que la relaci´on ele-
gida no es adecuada, debi´endose ensayar con otro tipo de
funci´on.
93
94. .
Se define el coeficiente de correlaci´on lineal como
r =
sXY
sXsY
Este coeficiente nos proporciona el grado de asociaci´on
lineal entre las variables, y el tipo de dicha relaci´on.
Puede demostrarse que, en el caso lineal, se verifica que
R2 = r2.
Al verificarse que R2 = r2 y que 0 ≤ R2 ≤ 1, se tendr´a que
−1 ≤ r ≤ 1. El signo hace alusi´on al tipo (lineal directa o
lineal inversa) y su valor en t´erminos absolutos, a la inten-
sidad de la relaci´on.
94
95. Interpretaci´on del valor de r
-1 -0.87 -0.5 0 0.5 0.87 1
F uerte
Inversa
↑
Escasa
Inversa
↑
Escasa
Directa
↑
F uerte
Directa
↑
↓
P erfecta
Inversa
↓
Incorreladas
↓
P erfecta
Directa
↓
Regular
Inversa
↓
Regular
Directa
95
96. Ejemplo 11 Comparemos los valores de R2 y r obtenidos
con los datos que nos han proporcionado las gr´aficas si-
guientes:
Perfecta directa Fuerte directa Regular directa
X
Y
0 2 4 6 8 10 12 14 16 18 20
3,6
5,6
7,6
9,6
X
Y
0 4 8 12 16 20
3
4
5
6
7
8
9
X
Y
0 4 8 12 16 20
2,5
4,5
6,5
8,5
10,5
R2 = 1 R2 = 0,9320 R2 = 0,6198
r = +1 r = +0,9654 r = +0,7872
96
97. Cap´ıtulo 4: SERIES TEMPORALES
4.1.-Introducci´on
4.2.-An´alisis de la tendencia de una serie temporal
4.3.-An´alisis de la estacionalidad
97
99. .
Llamamos serie temporal a una sucesi´on de observaciones
cuantitativas de un fen´omeno, ordenadas en el tiempo.
En una serie temporal es esencial la ordenaci´on que el tiem-
po induce en los datos. Esta ordenaci´on no puede variarse.
Vamos a considerar una serie temporal como una variable
bidimensional (t, Yt), en la que una de las componentes, la
dependiente, es la magnitud que queremos analizar, mien-
tras que la independiente es el tiempo.
El an´alisis de una serie temporal debe iniciarse con una
representaci´on gr´afica en un sistema de ejes cartesianos.
Representaremos en el de abcisas el tiempo, t, y en el de
ordenadas la magnitud observada, Yt. Con esto se consi-
gue el diagrama de dispersi´on de la distribuci´on (ti, yti
). La
uni´on mediante segmentos de sus puntos nos proporciona
un diagrama de sierra del cual extraeremos las conclusio-
nes iniciales sobre el comportamiento de nuestra serie.
99
100. Ejemplo 12 En la siguiente tabla se recogen las cifras re-
lativas a la poblaci´on reclusa existente en los diferentes
centros penitenciarios de Espa˜na (Fuente: INE)
Meses 2002 2003 2004 2005 2006
Enero 48 398 52 547 56 814 59 668 61 447
F ebrero 49 031 53 091 57 725 59 966 61 930
Marzo 49 685 53 525 58 068 60 078 62 426
Abril 50 107 53 633 58 547 60 602 62 794
Mayo 50 683 54 360 59 043 60 702 63 111
Junio 50 961 54 770 59 125 60 887 63 552
Julio 50 519 54 784 59 254 61 067 63 800
Agosto 51 161 55 244 59 249 61 269 64 120
Septiembre 51 454 55 477 59 385 61 156 64 233
Octubre 52 001 55 999 59 658 61 274 64 195
Noviembre 52 342 56 411 59 695 61 257 64 325
Diciembre 51 882 56 096 59 375 61 054 64 021
100
101. Poblacionreclusa
1/02 1/03 1/04 1/05 1/06 1/07
48
51
54
57
60
63
66
(X 1000)
Serie temporal de la poblaci´on reclusa existente en los
diferentes centros penitenciarios de Espa˜na
101
102. .
Supondremos que las series temporales est´an formadas por
cuatro componentes te´oricas:
(a) Tendencia, Tt: evoluci´on de la serie a largo plazo.
(b) Estacional, Et: fluctuaciones de la serie que se producen
en un periodo igual o inferior a un a˜no, y que se repro-
ducen de manera reconocible en los diferentes a˜nos. Se
deben a efectos de la climatolog´ıa sobre la actividad
econ´omica o a algunos h´abitos sociales.
(c) C´ıclica, Ct: oscilaciones que se producen con un periodo
superior al a˜no, debidas a la alternancia de etapas de
prosperidad y depresi´on.
(d) Residual, rt: movimientos originados por fen´omenos im-
previsibles, como huelgas, cat´astrofes, etc., que afectan
a la variable de manera casual y no permanente.
102
103. ¿C´omo se combinan las cuatro componentes te´oricas para
formar la serie que observamos?. En el estudio cl´asico de
las series temporales se consideran los modelos siguientes:
(a) Modelo aditivo: Yt = Tt + Et + Ct + rt
(b) Modelo multiplicativo puro: Yt = Tt · Et · Ct · rt
(c) Modelo multiplicativo-aditivo: Yt = Tt · Et · Ct + rt
Para elegir uno u otro modelo existen varios m´etodos. En
el presente curso no vamos a profundizar en este tema y,
en todos los supuestos que vamos a estudiar se nos indi-
car´a qu´e modelo debemos utilizar.
103
105. .
Para realizar un estudio de la tendencia en una serie tem-
poral, existen diferentes m´etodos. Vamos a desarrollar el
que se conoce como M´etodo de las medias m´oviles
Consiste en el suavizado de la serie dada, promediando sus
observaciones con valores contiguos, anteriores y posterio-
res, con lo que se consigue eliminar la componente residual.
Para calcular medias m´oviles de orden o tama˜no p se pro-
cede como sigue:
(a) La primera media m´ovil se obtiene calculando la media
aritm´etica de las p primeras observaciones.
(b) Para calcular las siguientes, vamos excluyendo la primera
observaci´on del grupo anterior e incluyendo la posterior
a la ´ultima tomada.
(c) El proceso se repite hasta que no se puedan formar m´as
grupos que contengan p observaciones.
La tendencia ser´a la l´ınea quebrada que une las sucesivas
medias m´oviles.
105
106. Ejemplo 13
Usando medias m´oviles de orden 3,
ti yti
T endencia
t1 yt1
t2 yt2
yt1 + yt2 + yt3
3
= yt2
t3 yt3
yt2 + yt3 + yt4
3
= yt3
t4 yt4
yt3 + yt4 + yt5
3
= yt4
t5 yt5
yt4 + yt5 + yt6
3
= yt5
t6 yt6
La tendencia es la l´ınea quebrada que une los puntos
(t2, yt2
), (t3, yt3
), (t4, yt4
) y (t5, yt5
).
106
107. Debemos tener en cuenta que:
(a) Existen observaciones para las que no se dispone de
medias m´oviles.
(b) La elecci´on del orden de las medias m´oviles no es f´acil, y
est´a ligado a las periodicidades de las fluctuaciones que
se desean suavizar. Si los datos se refieren a per´ıodos
inferiores al a˜no, se aconseja tomar como valor de p
el n´umero de dichos per´ıodos. Cuando los datos de la
serie son anuales, y por tanto no existe componente
estacional, debemos tomar como orden el n´umero de
a˜nos que comprenda un ciclo.
107
108. (c) A mayor orden de las medias m´oviles, mayor suaviza-
do, pero menor n´umero de observaciones para c´alculos
posteriores.
(d) Cuando se calculen medias m´oviles de orden par, las ob-
servaciones no quedar´an centradas en el tiempo. Por ello
deberemos repetir el proceso a los promedios obtenidos
inicialmente, utilizando el orden 2.
108
109. Ejemplo 14
Usando medias m´oviles de orden 4,
ti yti
yti
T endencia
t1 yt1
t2 yt2
yt3
t3 yt3 yt3
=
yt3
+ yt4
2
yt4
t4 yt4 yt4
=
yt4
+ yt5
2
yt5
t5 yt5
t6 yt6
La tendencia es la l´ınea que une los puntos (t3, yt3
) y (t4, yt4
).
109
110. Ejemplo 15 Durante el per´ıodo 1975-1986, la inversi´on en
instalaciones penitenciarias, expresada en millones de u.m.,
en cierto pa´ıs fue la siguiente:
A˜nos 1975 1976 1977 1978 1979 1980
Inversi´on 600 800 750 400 350 500
A˜nos 1981 1982 1983 1984 1985 1986
Inversi´on 1 000 950 810 540 720 1 160
Suponiendo que la inversi´on considerada se comporta c´ıcli-
camente con per´ıodo de 4 a˜nos, calc´ulese la tendencia.
110
111. .
Seg´un se nos indica en el enunciado, debemos tomar como
valor de p el n´umero de a˜nos que se supone comprende un
ciclo, es decir 4.
ti 1975 1976 1977 1978 1979 1980
yti
− − 606,25 537,5 531,25 631,25
ti 1981 1982 1983 1984 1985 1986
yti
757,5 820 790 781,25 − −
111
112. Si el tama˜no del ciclo fuese 5, las medias m´oviles deber´ıan
calcularse de orden 5.
ti 1975 1976 1977 1978 1979 1980
yti
− − 580 560 600 640
ti 1981 1982 1983 1984 1985 1986
yti
722 760 804 836 − −
112
114. En la gran mayor´ıa de las series temporales las fluctuacio-
nes debidas a la componente estacional, pueden provocar
una distorsi´on sobre la evoluci´on real de la misma. Debe-
mos, por tanto, identificar la componente estacional y a
continuaci´on eliminarla. A este procedimiento se la llama
desestacionalizaci´on. De igual manera que para el estudio
de la tendencia, para el an´alisis de la estacionalidad tam-
bi´en existen varios m´etodos. Nosotros usaremos el de las
medias m´oviles o m´etodo mec´anico
114
115. .
Consta de los siguientes pasos:
(a) Determinamos la tendencia calculando las medias m´o-
viles centradas en los per´ıodos, yti
´o yti
. Para ello es-
cogeremos como orden de la media m´ovil, p , el n´umero
de per´ıodos estacionales en que se divide el a˜no.
(b) Eliminamos de forma conjunta la tendencia y la compo-
nente c´ıclica de los datos originales yti
.
(i) Si el modelo es aditivo, por diferencia:
yti
− yti
´o yti
− yti
(ii) Si el modelo es multiplicativo-aditivo, por cociente:
yti
yti
´o
yti
yti
115
116. (c) Eliminamos la componente residual calculando los pro-
medios de los valores obtenidos en el apartado (b) para
cada per´ıodo estacional:
(i) Si el modelo es aditivo:
yej
=
1
qj
qj
i=1
(y
(j)
ti
− y
(j)
ti
) ´o yej
=
1
qj
qj
i=1
(y
(j)
ti
− y
(j)
ti
)
donde qj es el n´umero de datos a promediar para el
j-´esimo per´ıodo estacional y los sumandos son los va-
lores obtenidos en el apartado (b) para dicho per´ıodo.
Estos promedios son ya las diferentes componentes
estacionales. Es decir, ej = yej
.
116
117. .
(ii) Si el modelo es multiplicativo-aditivo:
yej
=
1
qj
qj
i=1
y
(j)
ti
y
(j)
ti
´o yej
=
1
qj
qj
i=1
y
(j)
ti
y
(j)
ti
siendo qj es el n´umero de datos a promediar para el
j-´esimo per´ıodo estacional y los sumandos son los va-
lores obtenidos en el apartado (b) para dicho per´ıodo.
Para obtener las componentes estacionales obtenemos
la base, media aritm´etica de los valores anteriores, con
la que efectuaremos las comparaciones:
y =
ye1
+ ye2
+ . . . + yep
p
As´ı, las componentes estacionales ser´an
ej =
yej
y
,
llamadas tambi´en ´ındices de variaci´on estacional (IVE).
117
118. Ejemplo 16 La siguiente tabla recoge informaci´on sobre
el consumo de materia prima realizado por los estableci-
mientos penitenciarios de cierta Comunidad Aut´onoma en
el per´ıodo 1998-2003. Calc´ulense las componentes estacio-
nales.
1998 1999 2000 2001 2002 2003
Trimestre 1 310 330 339 365 370 460
Trimestre 2 290 305 320 355 375 401
Trimestre 3 285 310 325 365 379 450
Trimestre 4 330 345 360 390 400 500
118
119. (a) Determinamos la tendencia por el m´etodo de las medias
m´oviles de orden igual a 4, calculando las medias m´oviles
centradas, yti
.
En un primer paso calculamos las medias m´oviles de
tama˜no 4 no centradas.
1998 1999 2000 2001 2002 2003
Trimestre 1
318,75 332,25 361,25 378,50 427,75
Trimestre 2
303,75 322,50 336,00 368,75 381,00 452,75
Trimestre 3
308,75 324,75 342,50 370,00 403,50
Trimestre 4
312,50 328,50 351,25 375,00 410,00
119
121. .
(b) Eliminamos la tendencia y la componente c´ıclica de los
datos originales:
(i) Si el modelo es aditivo, haremos:
yti
− yti
1998 1999 2000 2001 2002 2003
T1 14,375 8,625 8,750 −6,750 41,125
T2 −15,625 −14,125 −10,000 −4,750 −39,250
T3 −21,250 −13,625 −14,000 −4,375 −13,250
T4 19,375 18,375 13,125 17,500 −6,750
(ii) Si el modelo es multiplicativo-aditivo, calcularemos:
yti
yti
1998 1999 2000 2001 2002 2003
T1 1,04554 1,02610 1,02456 0,98208 1,09817
T2 0,95126 0,95765 0,97260 0,98749 0,91084
T3 0,93061 0,95789 0,95799 0,98815 0,96622
T4 1,06237 1,05625 1,03783 1,04697 0,98340
121
122. .
(c) Eliminamos la componente residual calculando los pro-
medios de los valores obtenidos en el apartado (b) para
cada per´ıodo estacional, es decir, para cada trimestre:
(i) Si el modelo es aditivo:
Componente estacional: ej = yej
Trimestre 1 13,225
Trimestre 2 −16,750
Trimestre 3 −13,300
Trimestre 4 12,325
Si se supone que el incremento medio registrado en
un trimestre considerado como normal es 0 , en-
tonces el consumo de materia prima por parte de la
Comunidad por el concepto considerado se ve incre-
mentado en 13,225 unidades en los trimestres primeros
y 12,325 unidades en los trimestres cuartos de cada
a˜no. Por contra, en los trimestres segundo y tercero
de cada a˜no el consumo de materia prima desciende
en 16,750 y 13,3 unidades, respectivamente.
122
123. .
(ii) Si el modelo es multiplicativo-aditivo:
Medias trimestrales: yej
Trimestre 1 1,03529
Trimestre 2 0,95596
Trimestre 3 0,96017
Trimestre 4 1,03736
A continuaci´on obtenemos la base, es decir, la media
de todos los valores anteriores:
y =
ye1
+ ye2
+ ye3
+ ye4
p
=
3,98878
4
= 0,9971
Por ´ultimo calcularemos las componentes estaciona-
les
ej =
yej
y
Componente estacional: ej
Trimestre 1 1,038202
Trimestre 2 0,958648
Trimestre 3 0,962870
Trimestre 4 1,040277
123
124. .
Multiplicadas por cien, obtenemos la expresi´on porcentual
de m´as f´acil interpretaci´on:
e1 : 103,8202 %; e2 : 95,8648 %
e3 : 96,2870 %; e4 : 104,0277 %
El consumo de materia prima por parte de los estableci-
mientos de la Comunidad se ve incrementado en un 3,8202 %
en los primeros trimestres y en un 4,0277 % en los trimestres
cuartos de cada a˜no. Por contra, en los trimestres segundo y
tercero de cada a˜no el consumo de materia prima desciende
en un 4,1352 % y en un 3,713 % , respectivamente.
124
125. Obtenidas las componentes estacionales, podemos deses-
tacionalizar la serie rest´andole a cada dato original de la
correspondiente estaci´on el valor de su componente estacio-
nal, si el modelo es aditivo, y dividiendo cada dato original
entre la correspondiente componente estacional expresada
en tantos por uno, en el caso multiplicativo-aditivo.
(i) Si el modelo es aditivo:
1998 1999 2000 2001 2002 2003
T1 296,775 316,775 325,775 351,775 356,755 446,775
T2 306,750 321,750 336,750 371,750 391,750 417,750
T3 298,300 323,300 338,300 378,300 392,300 463,300
T4 317,675 332,675 347,675 377,675 387,675 487,675
125
126. (ii) Si el modelo es multiplicativo-aditivo:
1998 1999 2000 2001 2002 2003
T1 298,593 317,857 326,526 351,569 356,385 443,073
T2 302,509 318,156 333,803 370,312 391,175 418,297
T3 295,989 321,953 337,532 379,074 393,614 467,352
T4 317,222 331,642 346,061 374,899 384,512 480,640
126
128. Cap´ıtulo 5: LA UTILIZACI ´ON DE LA PROBABILIDAD
EN CRIMINOLOG´IA
5.1.-Experimentos aleatorios. Definiciones
5.2.-Diversas concepciones de probabilidad
5.3.-Probabilidad condicionada
5.4.-Sucesos dependientes e independientes
128
129. Los protagonistas
Daniel Bernoulli (1700 - 1782)
Perteneci´o a una de las familias m´as singulares de
la historia de las ciencias. Al menos ochos de sus miembros
brillaron en diferentes campos de las matem´aticas. Daniel
destac´o en ecuaciones diferenciales, c´alculo de probabilida-
des, mec´anica, n´autica, etc.
129
130. Blas Pascal (1623 - 1662)
Fu´e un genio precoz a quien su padre inici´o muy
pronto en la geometr´ıa. Destac´o en filosof´ıa, f´ısica y ma-
tem´aticas. Junto con Fermat, se considera iniciador de los
estudios de probabilidad tal y como los entendemos hoy en
d´ıa.
130
131. Pierre Fermat (1601 - 1665)
Matem´atico de gran importancia en el desarrollo
de la Teor´ıa de N´umeros. En su correspondencia con Pascal
se situa el inicio del moderno c´alculo de probabilidades.
131
132. Andrei N. Kolmogorov (1903 - 1987)
Estableci´o las bases modernas de la teor´ıa axiom´ati-
ca de la probabilidad.
132
134. Definici´on Los fen´omenos aleatorios son aquellos en los
que no se puede predecir el resultado final incluso realiz´ando-
se en las mismas condiciones.
Ejemplo 17 Son ejemplos de experimentos aleatorios el
lanzamiento de un dado equilibrado, la elecci´on al azar de
un n´umero entre 0 y 1, consumo diario de agua de una
ciudad, etc...
Definici´on La Teor´ıa de la Probabilidad estudia los m´eto-
dos de an´alisis que son comunes en el tratamiento de los
fen´omenos aleatorios, cualquiera que sea el ´area en que
´estos se presenten.
134
135. La correspondencia de Fermat con Pascal, consistente en
7 cartas entre julio y octubre de 1654, se considera el co-
mienzo del C´alculo de Probabilidades. Concretamente las
misivas resolvieron el llamado Problema del Reparto:
Un jugador juega a que saca un seis de ocho tiradas,
pero despu´es de tres tiradas no lo ha conseguido y
la partida no se contin´ua. ¿Qu´e proporci´on de la
apuesta total debe recibir?
135
136. Definici´on Se llama espacio muestral asociado a un experi-
mento aleatorio al conjunto formado por todos los posibles
resultados del experimento aleatorio. Suele representarse
por Ω.
Ejemplo 18 Consideremos el experimento aleatorio consis-
tente en lanzar un dado equilibrado de seis caras al aire y ob-
servar el n´umero de puntos que figuran en la cara superior.
Su correspondiente espacio muestral ser´a Ω = {1, 2, 3, 4, 5, 6}.
Definici´on Se denomina suceso a todo subconjunto A del
espacio muestral, (A ⊆ Ω). Es un resultado en que se con-
creta el experimento.
136
137. Los sucesos suelen representarse por letras may´usculas: A,
B, C,...
Ejemplo 19 En el lanzamiento de un dado, son sucesos:
A= sacar puntuaci´on par = {2, 4, 6};
B= sacar puntuaci´on 2 = {2}.
137
138. Existen distintos tipos de sucesos:
(a) Suceso imposible es aquel que no ocurre nunca. Se re-
presenta por ∅.
(b) Suceso seguro es aquel que ocurre siempre. Se repre-
senta por Ω.
(c) Suceso elemental es el formado por un s´olo punto mues-
tral.
(d) Suceso compuesto es el formado por m´as de un punto
muestral.
138
139. .
Definici´on Se llama espacio de sucesos, S, al conjunto
formado por todos los sucesos asociados al experimento
aleatorio en cuesti´on.
Ejemplo 20 Ω = {1, 2, 3, 4, 5, 6} es el espacio muestral en el
lanzamiento de un dado de seis caras, entonces el espacio
de sucesos ser´a:
S = P (Ω) = {∅, {1}, . . . , {6}, {1, 2}, . . . , {5, 6},
{1, 2, 3}, . . . , {3, 4, 5, 6}, . . . , {2, 3, 4, 5, 6}, Ω}
Un suceso elemental es B= sacar puntuaci´on 2 = {2}.
Un suceso compuesto es A= sacar puntuaci´on par =
{2, 4, 6}.
139
140. .
Hemos establecido una correspondencia entre sucesos y
conjuntos. Vamos a recordar algunas operaciones y rela-
ciones entre conjuntos, que ahora, ser´an de inter´es para
trasladarlas a los sucesos.
Definici´on Dado el suceso A de un espacio muestral Ω,
definimos suceso complementario de A, que se denota por
A, al suceso formado por todos los puntos muestrales que
no pertenecen a A.
A = {ω ∈ Ω/ω /∈ A}
El suceso A ocurre si y s´olo si no ocurre A.
Ejemplo 21 En el lanzamiento de un dado de seis caras
⇒ Ω = {1, 2, 3, 4, 5, 6}. Entonces:
A= sacar puntuaci´on par = {2, 4, 6} ⇒ A= sacar pun-
tuaci´on impar = {1, 3, 5}
140
141. .
Definici´on Dados los sucesos A y B de un espacio muestral
Ω, la uni´on de ambos, que se denota por A∪B, es el suceso
formado por todos los puntos muestrales que pertenecen
al menos a uno de los sucesos.
A ∪ B = {ω ∈ Ω/ω ∈ A ´o ω ∈ B}
El suceso A∪B ocurre siempre que ocurra A ´o B ´o ambos.
Ejemplo 22 En el lanzamiento de un dado de seis caras,
sean los sucesos A y B siguientes:
A= sacar puntuaci´on par = {2, 4, 6}
B= sacar puntuaci´on mayor que 4 = {5, 6}
Entonces
A ∪ B =
sacar puntuaci´on par ´o puntuaci´on mayor que 4 = {2, 4, 5, 6}
141
142. .
Definici´on Dados los sucesos A y B de un espacio muestral
Ω, la intersecci´on de ambos, que denotamos por A ∩ B,
es el suceso formado por todos los puntos muestrales que
pertenecen a ambos sucesos.
A ∩ B = {ω ∈ Ω/ω ∈ A y ω ∈ B}
El suceso A ∩ B ocurre siempre que ocurran A y B.
Ejemplo 23 En el lanzamiento de un dado de seis caras,
sean los sucesos A y B siguientes:
A= sacar puntuaci´on par = {2, 4, 6}
B= sacar puntuaci´on mayor que 4 = {5, 6}
Entonces
A∩B = sacar puntuaci´on par y puntuaci´on mayor que 4 = {6}
142
143. .
Definici´on A y B son sucesos incompatibles o mutuamente
excluyentes, si la ocurrencia simult´anea de ambos es impo-
sible, es decir: A ∩ B = ∅.
Ejemplo 24 En el lanzamiento de un dado de seis caras,
son incompatibles los sucesos:
A= sacar puntuaci´on menor que 3 = {1, 2} y B= sacar
puntuaci´on mayor que 4 = {5, 6}
Observaci´on Un suceso y su complementario son siempre
sucesos incompatibles.
Leyes de De Morgan
(a) A ∪ B = A ∩ B
(b) A ∩ B = A ∪ B
143
145. .
Dado un suceso, A, perteneciente al espacio de sucesos
S asociado al espacio muestral Ω, la probabilidad trata de
asignar a A una medida te´orica de la ocurrencia de A.
(a) DEFINICI ´ON CL´ASICA ´O DE LAPLACE (1812)
Deben establecerse dos hip´otesis necesarias:
(i) El espacio muestral ha de ser finito, y
(ii) Todos los sucesos elementales han de ser igualmente
favorables
entonces se define la probabilidad del suceso A como
p(A) =
n´umero de casos favorables a A
n´umero total de sucesos elementales posibles
=
(A)
(Ω)
145
146. Ejemplo 25 En el lanzamiento de un dado de seis caras
no cargado, consideremos Ω = {1, 2, 3, 4, 5, 6}. Sea el suceso
A= sacar puntuaci´on menor que 3 = {1, 2}, entonces:
p(A) =
(A)
(Ω)
=
2
6
= 0.3
146
147. .
(b) DEFINICI ´ON FRECUENCIALISTA O DE VON MISES
(1919)
Si repetimos un experimento N veces, llamamos fre-
cuencia relativa del suceso A, que denotamos por f(A),
al cociente entre el n´umero de veces que ´este se pre-
senta y el total de pruebas. La frecuencia relativa no es
m´as que una medida relativa y emp´ırica de la ocurrencia
de un suceso.
Es un hecho comprobado emp´ıricamente que, la fre-
cuencia relativa de un suceso tiende a estabilizarse cuan-
do el n´umero de pruebas aumenta. La definici´on fre-
cuencialista de probabilidad se basa en este hecho, y
asigna como probabilidad al suceso A el n´umero:
p(A) = l´ım
N→∞
f(A) = l´ım
N→∞
n(A)
N
=
= l´ım
N→∞
frecuencia absoluta de A
n´umero total de pruebas
147
148. Estas conclusiones llevan el nombre de Primera Ley de los
Grandes N´umeros: Cuando el n´umero de realizaciones de un
experimento aleatorio crece mucho, la frecuencia relativa
del suceso asociado se va acercando cada vez m´as hacia un
cierto valor. Este valor se llama probabilidad del suceso.
148
149. (c) DEFINICI ´ON AXIOM´ATICA O DE KOLMOGOROV
(1933)
Dado el espacio de sucesos S asociado a un espacio
muestral Ω, se define una medida de probabilidad, p,
como una funci´on:
p : S → [0, 1]
que verifique los siguientes axiomas:
Axioma 1: p(A) ≥ 0, ∀A ∈ S
Axioma 2: p(Ω) = 1
Axioma 3: p
i
Ai
=
i
p(Ai), ∀Ai ∈ S, Ai ∩ Aj = ∅, i = j
149
150. Observaci´on Los axiomas anteriores permiten demostrar
las dos propiedades siguientes:
(a) p(A) = 1 − p(A)
(b) p(A ∪ B) = p(A) + p(B) − p(A ∩ B)
Definici´on Se denomina espacio probabil´ıstico a la terna
(Ω, S, p), donde S es el espacio de sucesos asociado al es-
pacio muestral Ω, y p es una medida de probabilidad.
150
151. Caso 1 El ciudadano norteamericano Wayne Williams fue
acusado de las muertes de dos hombres negros en Atlan-
ta, Georgia. La evidencia contra Williams consist´ıa en un
n´umero de fibras de moqueta encontradas sobre los cuer-
pos, que se parec´ıan a las fibras encontradas en su entorno.
Estas fibras pertenecen a un tipo de moqueta poco usual.
Un experto concluye que ese tipo de fibra s´olo se encuentra
en 10 ´areas del Estado. Asumiendo que las ventas han sido
iguales en las 10 ´areas y que s´olo se ha enmoquetado una
habitaci´on por casa, el experto cifra, por la cantidad de mo-
queta vendida, que s´olo 81 casas de Atlanta conten´ıan esa
fibra de 638992, luego si llamamos al suceso A= la casa
seleccionada tiene la moqueta considerada entonces:
p(A) =
81
638992
= 0,0001267
1
8000
151
152. La habitaci´on de Wayne Williams ten´ıa moqueta con esa
fibra y el fiscal arguy´o que hab´ıa s´olo una posibilidad so-
bre 8000 de que hubiera otra casa en Atlanta que tuviera
la misma moqueta que la casa de Williams . El acusado
finalmente ser´ıa declarado culpable.
152
154. En los ejemplos que hemos planteado hasta ahora, siem-
pre hemos supuesto que cualquiera de los resultados puede
ocurrir en el experimento. La incorporaci´on de una infor-
maci´on adicional, como por ejemplo, el conocimiento de la
ocurrencia de otro suceso, puede hacer que determinados
resultados no puedan ocurrir, con lo que el espacio muestral
cambia y cambian las probabilidades.
154
155. .
Ejemplo 26 Supongamos el experimento consistente la ex-
tracci´on de una bola de un bolsa que contiene seis bolas
numeradas del uno al seis y observar el resultado obtenido.
El correspondiente espacio muestral es Ω = {1, 2, 3, 4, 5, 6}, y
la probabilidad inicial del suceso A= sacar n´umero primo
= {2, 3, 5} es:
p(A) =
3
6
=
1
2
Observaci´on Dado un n´umero entero n > 1, diremos que
n es un n´umero primo, si 1 y n son los ´unicos divisores
positivos de n. Por tanto los primeros n´umeros primos son
2, 3, 5, 7, 11, etc.
155
156. Supongamos ahora que las bolas correspondientes a los
n´umeros pares han sido introducidas en una bolsa de color
rojo y las correspondientes a los impares en una de color
amarillo. Seleccionamos al azar una de las dos bolsas re-
sultando seleccionada la roja. Si a continuaci´on extraemos
una bola de dicha bolsa, ¿qu´e probabilidad hay de que la
cifra obtenida sea n´umero primo?
156
157. La informaci´on del color de la bolsa produce, en este caso,
una reducci´on del espacio muestral a:
Ωroja = Ωpar = {2, 4, 6}
con lo que,
p(A si se elegi´o bolsa roja) = p(A/puntuaci´on par) =
1
3
Como vemos, en este caso, la informaci´on disponible ha
hecho disminuir la probabilidad.
157
158. Otras veces una informaci´on adicional aumenta dicha pro-
babilidad. Supongamos que el color de la bolsa seleccionada
hubiese sido amarilla, entonces:
Ωamarilla = Ωimpar = {1, 3, 5}
y, por tanto,
p(A si se eligi´o bolsa amarilla) = p(A/puntuaci´on impar) =
2
3
158
159. Definici´on Cuando consideremos la probabilidad de ocu-
rrencia de un suceso A perteneciente a un espacio de su-
cesos sabiendo que ha acontecido otro suceso B, diremos
que estamos calculando la probabilidad de A condiciona-
da a B. Lo denotamos por p(A/B), donde A es el suceso
condicionado y B es el suceso condicionante.
159
160. En el ejemplo anterior podemos expresar la probabilidad de
obtener n´umero primo, habiendo obtenido cifra par como:
p(A/puntuaci´on par) =
1
3
=
1
6
3
6
=
p(A ∩ puntuaci´on par)
p(puntuaci´on par)
y, la probabilidad de obtener n´umero primo, habiendo ob-
tenido cifra impar como:
p(A/puntuaci´on impar) =
2
3
=
2
6
3
6
=
p(A ∩ puntuaci´on impar)
p(puntuaci´on impar)
160
161. Definici´on Sea (Ω, S, p) un espacio probabil´ıstico y B un
suceso de S con probabilidad no nula, p(B) > 0. Sea A un
suceso cualquiera de S, llamaremos probabilidad del suce-
so A condicionada porque haya acontecido otro suceso B
o, sencillamente, probabilidad de A condicionada por B, al
cociente
p(A/B) =
p(A ∩ B)
p(B)
161
163. Ejemplo 27 De un lote de doce art´ıculos, de los cuales
cuatro son defectuosos, se toman tres art´ıculos escogidos
al azar uno tras otro sin reemplazamiento. Calcula la proba-
bilidad de que los tres art´ıculos sean no defectuosos. Sean
los sucesos
A1= el primer art´ıculo seleccionado es no defectuoso
A2= el segundo art´ıculo seleccionado es no defectuoso
A3= el tercer art´ıculo seleccionado es no defectuoso
Entonces:
p(A1∩A2∩A3) = p(A1)·p(A2/A1)·p(A3/A1∩A2) =
8
12
·
7
11
·
6
10
=
14
55
163
165. .
Ejemplo 28 Consideremos el experimento consistente en
lanzar un dado no cargado y sean los sucesos A y B siguien-
tes:
A= obtener cifra mayor que 2 = {3, 4, 5, 6} ⇒ p(A) =
4
6
B= obtener cifra par = {2, 4, 6} ⇒ p(B) =
3
6
A ∩ B= obtener cifra par mayor que 2 = {4, 6} ⇒
p(A ∩ B) =
2
6
, entonces
p(A/B) =
p(A ∩ B)
p(B)
=
2
6
3
6
=
2
3
= p(A)
p(B/A) =
p(B ∩ A)
p(A)
=
2
6
4
6
=
2
4
= p(B)
165
166. Como observamos, la informaci´on suministrada por el suce-
so condicionante resulta indiferente en cuanto a la proba-
bilidad de ocurrencia del suceso condicionado. Los sucesos
A y B se dir´an independientes.
Definici´on Sea el espacio probabil´ıstico (Ω, S, p) y sean A y
B sucesos de S con p(B) > 0. Diremos que los sucesos A y
B son independientes si se verifica que
p(A/B) = p(A)
O dicho de otra forma:
Definici´on Diremos que dos sucesos A y B son indepen-
dientes si y s´olo si se verifica que:
p(A ∩ B) = p(A) · p(B)
166
167. Caso 2 En Miller v. State, 240 Ark. 340, 399 S.W.2d 268
(1966), un experto testific´o basado en las probabilidades
de los siguientes sucesos:
1. A1= Encontrar al azar una fibra de un determinado
color , p(A1) = 1/10,
2. A2= Encontrar al azar una fibra de una determinada
textura , p(A2) = 1/100 y
3. A3= Encontrar al azar una fibra de una determinada
densidad , p(A3) = 1/1000
luego
p(A1 ∩ A2 ∩ A3) = p(A1) · p(A2) · p(A3) =
1
10
·
1
100
·
1
1000
=
1
1000000
167
168. por tanto, el acusado fue condenado en base a que la pro-
babilidad de encontrar al azar una fibra incriminatoria como
la encontrada sobre su ropa era de 1/1000000=0.000001.
En la corte de apelaci´on, la condena fue revocada por no
considerar adecuada tal probabilidad.
168
169. Caso 3 En Collidge v. State, 109 N.H. 403, 260 A. 2d 547
(1969). Un experto obtuvo fibras del vestido de la v´ıctima,
de la ropa del acusado y del autom´ovil donde se cre´ıa que un
crimen se hab´ıa perpetrado. Estudios previos indican que la
probabilidad de encontrar part´ıculas similares en rastreos de
una serie de autom´oviles era de 1/10. El experto concluye
que si llamamos
A= Encontrar 27 part´ıculas similares , entonces
p(A) =
1
1027
Otro experto sostuvo que las 27 part´ıculas pueden no ser
independientes unas de otras, pero la corte opta por la
condena del acusado.
169
170. Teorema de la probabilidad total Dado un espacio proba-
bil´ıstico (Ω, S, p), si A1, A2, . . . , An ∈ S es una colecci´on de
sucesos mutuamente excluyentes, todos con probabilidades
no nulas, y tales que Ω =
n
i=1
Ai, se verifica para todo B ∈ S:
p(B) =
n
i=1
p(B/Ai) · p(Ai)
170
171. .
Teorema de Bayes Dado un espacio probabil´ıstico (Ω, S, p),
si A1, A2, . . . , An ∈ S es una colecci´on de sucesos mutuamen-
te excluyentes, todos con probabilidades no nulas, y tales
que Ω =
n
i=1
Ai, se verifica para todo B ∈ S:
p(Aj/B) =
p(Aj ∩ B)
p(B)
=
p(B/Aj) · p(Aj)
n
i=1
p(B/Ai) · p(Ai)
, con j = 1, 2, . . . , n.
A las probabilidades p(Aj) se les llama probabilidades a prio-
ri, y son las probabilidades iniciales que tenemos de los su-
cesos Aj. Ante una determinada evidencia experimental, B,
corregimos el grado de creencia de las Aj obteniendo unas
nuevas probabilidades, p(Aj/B), llamadas probabilidades a
posteriori, a trav´es de las verosimilitudes, p(B/Aj).
171
172. .
Caso 4 US v. L´opez, 328 F. Supp. 1077 (EDNY 1971). En
1980 la administraci´on americana introduce un programa
para ayudar a identificar pasajeros con sustancias ilegales
en los aviones. Consideremos el suceso:
A= Una persona elegida al azar lleva sustancias ilegales
Supongamos que, aproximadamente, una persona de cada
25000 viajeros lleva una sustancia ilegal. Es decir que se
tiene que p(A) =
1
25000
= 0,00004, probabilidad llamada a
priori.
Para confirmar tal suposici´on, usamos un test o prueba
que previamente ha sido evaluada sobre dos grupos de in-
dividuos, unos que llamaremos afectados (con sustancias
ilegales, en este caso) y otros que no.
172
173. As´ı, se ha estimado de modo frecuencialista que el test tiene
una sensibilidad del 90 % y una especificidad del 99.95 %.
La sensibilidad de un test es la proporci´on de individuos
afectados que son dados como positivos, correctamente,
por el test, es decir, p(+/A) = 0,90.
El t´ermino tasa de falsos negativos hace referencia al com-
plementario de la sensibilidad.
Tasa de falsos negativos=1- sensibilidad=p(−/A) = 0,10
173
174. La especificidad de un test es la proporci´on de individuos
de entre los no afectados que son dados como negativos,
correctamente, por el test, es decir, p(−/A) = 0,9995.
El t´ermino tasa de falsos positivos hace referencia al com-
plementario de la especificidad.
Tasa de falsos positivos=1- especificidad=p(+/A) = 0,0005
A partir de lo anterior y usando el Teorema de Bayes, po-
demos calcular las probabilidades a posteriori (en funci´on
de los resultados del test): los llamados valores predictivos
positivo y negativo.
Valor predictivo positivo=p(A/+)
Valor predictivo negativo=p(A/−)
174
175. .
Dos pasajeros muestran el perfil sospechoso. Son cachea-
dos, se les encuentra hero´ına y son arrestados. La pregunta
que hace la defensa es cu´al es la proporci´on de personas
que llevan una sustancia ilegal supuesto que que el test los
ha calificado de alto riesgo , es decir, supuesto que el test
ha sido positivo.
Aplicando el teorema de Bayes dicha probabilidad ser´a
p(A/+) =
p(+/A) · p(A)
p(+/A) · p(A) + p(+/A) · p(A)
=
=
0,90 · 0,00004
0,90 · 0,00004 + 0,0005 · 0,99996
= 0,067
es decir, un 6.7 % de individuos calificados como de alto
riesgo lleva sustancias ilegales.
175
176. Luego nuestra suposici´on de que un 0,004 % de pasajeros
llevaban sustancias ilegales, es del 6,7 % una vez realizada
la prueba. Nuestra opini´on a priori ha sido modificada por
el resultado del experimento.
La defensa arguye que esta proporci´on es demasiado baja
para justificar un breve arresto de los detenidos.
176
177. .
Caso 5 En 1986 la administraci´on de Reagan declara el uso
de drogas incompatible con un empleo en la administraci´on
estadounidense y autoriza la realizaci´on de un test de orina
para los nuevos aspirantes a funcionarios o para los ya fun-
cionarios de los que se sospeche que consumen drogas. En
la orden se asegura que el test debe tener una sensibilidad
del 98 %, una especificidad del 95 % y se supone que el 1 %
de la poblaci´on laboral toma drogas.
Consideremos los sucesos
A= una persona elegida aleatoriamente toma drogas
A= una persona elegida aleatoriamente no toma drogas
+= en una persona elegida al azar el test da positivo
−= en una persona elegida al azar el test da negativo
177
178. De estos sucesos conocemos
Las probabilidades a priori, que son p(A) = 0,01; p(A) = 0,99
La sensibilidad p(+/A) = 0,98;
La tasa de falsos negativos p(−/A) = 0,02;
La especificidad p(−/A) = 0,95;
La tasa de falsos positivos p(+/A) = 0,05.
178
179. .
El valor predictivo positivo del test, es decir, la proporci´on
sobre todos los tests positivos que realmente se correspon-
den con personas consumidoras de droga es de
p(A/+) =
p(+/A) · p(A)
p(+/A) · p(A) + p(+/A) · p(A)
=
=
0,98 · 0,01
0,98 · 0,01 + 0,05 · 0,99
= 0,1652
El valor predictivo negativo es de
p(A/−) =
p(−/A) · p(A)
p(−/A) · p(A) + p(−/A) · p(A)
=
=
0,95 · 0,99
0,95 · 0,99 + 0,02 · 0,01
= 0,9997
179
180. Cap´ıtulo 6: MODELOS PROBABIL´ISTICOS
ASOCIADOS A LA CRIMINOLOG´IA
6.1.-Variables aleatorias
6.2.-Caracter´ısticas de las variables aleatorias
6.3.-Modelos probabil´ısticos
180
182. Ejemplo 29 Cierto establecimiento penitenciario contabili-
za el n´umero de accidentes laborales diarios. Los datos del
´ultimo mes fueron:
N´umero de accidentes 0 1 2 3 4
N´umero de d´ıas 10 12 5 2 1
Considerando la variable estad´ıstica
X = N0 de accidentes diarios ,
puede considerarse la distribuci´on de frecuencias:
xi 0 1 2 3 4
ni 10 12 5 2 1
fi 1/3 2/5 1/6 1/15 1/30
182
183. Para dicha distribuci´on podemos calcular una serie de coe-
ficientes como por ejemplo x, Me, s2, etc... Estas medidas
emp´ıricas tienen su fundamento en las frecuencias observa-
das de los valores de la variable.
Despu´es de observar el comportamiento de dicha variable
durante un n´umero elevado de meses, las regularidades ob-
servadas en las frecuencias relativas permiten la definici´on
de una distribuci´on de probabilidad que trate de explicar el
comportamiento futuro del fen´omeno.
xi 0 1 2 3 4
pX (xi) 1/3 2/5 1/6 1/15 1/30
183
184. De forma an´aloga al caso de la variable estad´ıstica podemos
resumir los aspectos m´as relevantes de esta distribuci´on me-
diante una serie de medidas te´oricas como por ejemplo la
esperanza, la mediana, la varianza, etc... As´ı podemos rela-
cionar conceptos como los que se muestran en la siguiente
tabla:
Medidas Emp´ıricas Medidas Te´oricas
Frecuencia relativa Probabilidad
Frecuencia relativa acumulada Funci´on de distribuci´on
Variable estad´ıstica Variable aleatoria
Media aritm´etica (x) Esperanza matem´atica (µ)
Varianza (s2) Varianza (σ2)
184
185. Ejemplo 30 Realicemos el experimento consistente en lan-
zar una moneda no cargada dos veces. Su espacio muestral
ser´a:
Ω = {(c, c), (c, +), (+, c), (+, +)}
donde todos los puntos muestrales son equiprobables.
Nos fijaremos en una determinada caracter´ıstica num´erica
del experimento, como por ejemplo,
X= n´umero de caras obtenidas en los dos lanzamientos .
Podemos considerar X como una aplicaci´on que asocia a
cada resultado del espacio muestral un valor num´erico
X : Ω −→ R
(c, c) −→ 2
(c, +) −→ 1
(+, c) −→ 1
(+, +) −→ 0
185
186. Adem´as, cada uno de estos valores se toma con una cierta
probabilidad inducida por la aleatoridad del fen´omeno al que
est´a asociado. As´ı, podemos escribir, por ejemplo:
p[X = 0] = p[(+, +)] =
1
4
p[X = 1] = p[(c, +) ∪ (+, c)] =
1
4
+
1
4
=
1
2
p[X = 2] = p[(c, c)] =
1
4
186
187. La noci´on de variable aleatoria es la de una funci´on que
asigna un valor num´erico a cada suceso elemental. De este
modo trasladamos la probabilidad definida sobre sucesos a
subconjuntos de la recta real.
Definici´on Sea (Ω, S, p) un espacio probabil´ıstico, se deno-
mina variable aleatoria (v.a.) a una aplicaci´on:
X : Ω −→ R
w ∈ Ω −→ X(w) ∈ R
187
188. Definici´on Se denomina funci´on de distribuci´on (f.d.D.)
de una variable aleatoria X a la funci´on FX definida como
sigue:
FX : R −→ [0, 1]
FX (x) = p [X ≤ x] , ∀x ∈ R.
La funci´on de distribuci´on de la variable aleatoria X describe
la acumulaci´on de probabilidad por la variable a lo largo de
la recta real. Tiene su antecedente en la frecuencia relativa
acumulada.
188
189. Definici´on Una variable aleatoria X es discreta si el con-
junto de valores que puede tomar X con probabilidad no
nula es discreto (finito ´o infinito numerable)
Si la variable es discreta y toma pocos valores distintos,
podemos dar esos valores con sus probabilidades de for-
ma expl´ıcita, pero si presenta muchos valores diferentes o
es de otro tipo, debemos apoyarnos en funciones que nos
resuman sus caracter´ısticas esenciales.
189
190. Definici´on Se conoce como funci´on de masa de proba-
bilidad ´o funci´on de probabilidad de una variable aleatoria
discreta X que toma los valores x1, x2, . . . , xn, . . . con proba-
bilidades no nulas a la funci´on
pX : R → [0, 1]
definida por:
pX (x) =
p[X = xk], si x = xk, k = 1, 2, . . . , n, . . .
0, en otro caso.
190
191. Sea X una variable aleatoria discreta que toma los valores
x1, x2, . . . , xn, . . . entonces se verifican las siguientes propie-
dades:
(a) 0 ≤ pX (xk) ≤ 1 para todo k.
(b)
k
pX (xk) = 1.
(c) FX (x) = p[X ≤ x] =
xk≤x
pX (xk).
(d) pX (xk) = FX (xk) − FX (xk−1).
191
192. Ejemplo 31 Consideremos el Ejemplo 30, y sea X= n´ume-
ro de caras obtenidas en dos lanzamientos de la moneda .
Sus posibles valores son X = {0, 1, 2}. Calculemos primero
FX en los posibles valores de X:
FX (0) = p [X ≤ 0] = p [X = 0] =
1
4
FX (1) = p [X ≤ 1] = p [X = 0] + p [X = 1] =
3
4
FX (2) = p [X ≤ 2] = p [X = 0] + p [X = 1] + p [X = 2] = 1
Observemos que FX est´a definida en todo el conjunto de
los n´umeros reales, por tanto:
FX (x) =
0, si x < 0
1/4, si 0 ≤ x < 1
3/4, si 1 ≤ x < 2
1, si x ≥ 2
192
193. .
La representaci´on gr´afica de FX es la siguiente:
T
E
1 2
0.25
0.75
1
E
E
E
E
e
e
e
e
Observemos que los saltos de la funci´on de distribuci´on se
producen justamente en los valores que toma la variable y
son de amplitud igual a las probabilidades con que los toma.
Es decir,
p[X = 0] = 0,25
p[X = 1] = 0,5
p [X = 2] = 0,25
193
194. Definici´on Una variable aleatoria X con funci´on de distri-
buci´on FX se dice que es continua, si existe una funci´on
fX (x) ≥ 0 tal que:
FX (x) = p [X ≤ x] =
x
−∞
fX (t) dt, ∀x ∈ R.
A fX (x) se le denomina funci´on de densidad (f.d.d.) de la
variable aleatoria continua X.
194
195. Asociadas a la funci´on de densidad tenemos las siguientes
propiedades:
(a)
+∞
−∞
fX (t) dt = 1, (FX (+∞) = 1)
(b) fX (x) = FX
(x) , es decir, la f.d.d. puede obtenerse a
trav´es de la f.d.D.
(c) p[X = a] = 0, ∀a ∈ R. (Como FX es continua, no tiene
saltos)
(d) p[X ≤ b] = p[X < b] =
FX (b)
b
−∞
fX (t) dt
195
196. (e) p[X > a] = p[X ≥ a] =
1 − FX (a)
+∞
a
fX (t) dt
(f) p[a < X ≤ b] = p[a ≤ X < b] = p[a < X < b] =
= p[a ≤ X ≤ b] =
FX (b) − FX (a)
b
a
fX (t) dt
196
198. Definici´on Sea X una variable aleatoria discreta que to-
ma los valores x1, x2, . . . , xn, . . . con probabilidades pX (xi) >
0. Llamaremos esperanza matem´atica, media, valor medio
´o valor esperado de X, E[X], a:
E[X] =
∞
i=1
xi pX (xi) =
∞
i=1
xi p[X = xi]
Definici´on Sea X una variable aleatoria continua con fun-
ci´on de densidad fX (x). Se llama esperanza matem´atica,
media, valor medio ´o valor esperado de X, E[X], a:
E[X] =
+∞
−∞
x fX (x) dx.
198
199. Definici´on Sea X una variable aleatoria con media µ, con-
tinua con funci´on de densidad fX (x) ´o discreta con funci´on
de probabilidad pX (x). Se llama varianza de X a
V ar [X] =
∞
i=1
(xi − µ)2
pX (xi), si X es discreta
+∞
−∞
(x − µ)2
fX (x) dx, si X es continua
199
200. Ejemplo 32 Un concesionario de autom´oviles, A, vende
2 coches la mitad de los d´ıas y 16 la otra mitad. Otro
concesionario, B, vende 8 coches la mitad de los d´ıas y 10
la otra mitad. Queremos calcular el n´umero de coches que
se espera que vendan cada uno de los concesionarios un d´ıa
cualquiera y dar una medida de la representatividad de la
citada medida.
Sean XA = n´umero de coches que vende el concesionario
A en un d´ıa y XB = n´umero de coches que vende el
concesionario B en un d´ıa .
xi 2 16
pXA
(xi) 0.5 0.5
xi 8 10
pXB
(xi) 0.5 0.5
200
201. Calculemos la esperanza y la varianza de cada variable:
E[XA] = 2 · 0,5 + 16 · 0,5 = 9
E[XB] = 8 · 0,5 + 10 · 0,5 = 9
V ar[XA] = (−7)2 · 0,5 + 72 · 0,5 = 49
V ar[XB] = (−1)2 · 0,5 + 12 · 0,5 = 1
Ambos concesionarios venden por t´ermino medio el mismo
n´umero de coches al d´ıa, pero para el concesionario B es-
te promedio puede considerarse m´as representativo ya que
tiene una menor dispersi´on.
201
203. Una de las preocupaciones de los cient´ıficos dedicados al
C´alculo de Probabilidades ha sido construir modelos de dis-
tribuciones de probabilidad que pudieran representar el com-
portamiento te´orico de diferentes fen´omenos aleatorios que
aparecen en el mundo real. Se puede observar como dife-
rentes distribuciones de probabilidad tienen una estructura
matem´atica parecida, es decir, responden a un mismo mo-
delo.
Una distribuci´on de probabilidad queda definida mediante
la especificaci´on de la variable, su campo de variaci´on y la
determinaci´on de sus probabilidades.
203
204. Si un conjunto de distribuciones tienen sus funciones de
definici´on (funci´on de distribuci´on, de densidad, de pro-
babilidad) con la misma estructura funcional, diremos que
pertenecen a la misma familia de distribuciones o al mismo
modelo de probabilidad.
La estructura matem´atica de las funciones de definici´on de
las distribuciones de la misma familia, suele depender de
uno o varios par´ametros a los que llamaremos par´ametros
de la distribuci´on.
Las ventajas de trabajar con modelos es que podemos apli-
car unas f´ormulas matem´aticas que permiten f´acilmente
calcular probabilidades.
204
205. La distribuci´on o modelo Binomial
Consideremos un experimento aleatorio que puede dar lu-
gar ´unicamente a dos resultados, A (llamado habitualmente
´exito) y A (llamado habitualmente fracaso), con probabili-
dades de ocurrencia respectivas p y q (p + q = 1).
Definici´on Un experimento como el anterior recibe el nom-
bre de experimento de Bernouilli.
205
206. Supongamos que se realizan n repeticiones independientes
de un experimento de Bernouilli con probabilidades de ´exito
y fracaso respectivas p y q que permanecen invariantes a lo
largo de todo el proceso. Si estamos interesados en estudiar
el n´umero de veces que ocurre el suceso A (´exito) en las
n repeticiones del experimento, podemos definir la variable
aleatoria siguiente:
X = n´umero de ´exitos que ocurren en las n pruebas
independientes
Esta variable tiene como posibles valores
X = { 0, 1, 2, . . . , n}
y su correspondiente funci´on de probabilidad es
p[X = k] =
n
k
pkqn−k, para k = 0, 1, 2, . . . , n
206
207. A la distribuci´on de la variable anterior se la conoce con el
nombre de distribuci´on Binomial de par´ametros n y p , que,
simb´olicamente representaremos por:
X B(n, p)
Sus principales caracter´ısticas son:
(a) E[X] = np
(b) V ar[X] = npq
207
208. Caso 6 La llamada Sexta Enmienda de la Constituci´on de
los Estados Unidos expresa que:
Los paneles de jurados deben ser seleccionados de
una fuente representando una secci´on cruzada justa
de la comunidad de la que el acusado forma parte.
En Whitus v. Georgia, 385 US 545 (1967), la poblaci´on de
raza negra constitu´ıa el 27 % de donde se selecciona el ju-
rado. De una lista inicial se seleccionan al final 90 personas
que s´olo incluye a 7 personas de color. Se plantea cu´al es
la probabilidad de que se d´e tal hecho y si se ha producido
una rotura de la representaci´on racial.
208
209. Sea X = n´umero de panelistas de raza negra de 90
B(90, 0,27)
p[X = 7] = 0,000003
Se hace notar que el jurado, que finalmente condena al
acusado, no tiene ninguna persona de color.
209
210. .
Caso 7 En Alexander v. Louisiana, 405 US 625 (1972),
para elegir un panel de jurados se repartieron una serie de
cuestionarios. De los 7374 que se devuelven, 1015 corres-
ponden a personas de color, es decir, s´olo un 13.76 %. Con
dichos cuestionarios se crea un panel revisado de posibles
jurados compuesto por 400 personas de las que s´olo 27 son
de raza negra.
Se considera la variable aleatoria:
X = n´umero de panelistas de raza negra de 400
Teniendo en cuenta que X B(400, 0,1376), la corte calcula
la probabilidad de que el n´umero de personas de color se-
leccionadas sea menor o igual que 27 de una lista de 400,
cifr´andose ´esta en:
p[X ≤ 27] = p[X = 0] + p[X = 1] + · · · + p[X = 27] = 0,0000069511
210
211. .
La distribuci´on o modelo de Poisson
Supongamos que se realiza un experimento consistente en
observar la aparici´on de ciertos acontecimientos puntuales
o ´exitos que ocurren sobre un soporte continuo (tiempo,
espacio, longitud, etc...) con las siguientes condiciones:
(a) El n´umero medio de ´exitos a largo plazo es constante.
(b) Los ´exitos ocurren aleatoriamente de forma indepen-
diente.
A este tipo de experimentos se les llama procesos de Pois-
son y son ejemplos del mismo la llegada de clientes a cierta
ventanilla de un banco en una hora, los defectos que apa-
recen en cada rollo de cable, etc.
211
212. Para este tipo de procesos, podemos definir la variable:
X= n´umero de ´exitos en un intervalo de amplitud
determinada
que puede tomar como posibles valores
X = {0, 1, 2 . . .}
con funci´on de probabilidad
p[X = k] = e−λ ·
λk
k!
, para k = 0, 1, 2 . . .
212
213. Diremos que una variable de este tipo sigue una distribuci´on
de Poisson de par´ametro λ (λ > 0) y escribiremos
X P(λ)
Sus principales caracter´ısticas son:
(a) E[X] = λ
(b) V ar[X] = λ
213
214. Aproximaci´on de Poisson a la distribuci´on
Binomial
Teorema Sea X una variable aleatoria con distribuci´on
B(n, p) se verifica que si
p ≤ 0,1 y np = λ < 5
la distribuci´on de X tiende a ser P(np).
214
215. .
Caso 8 En Avery v. Georgia, 345 US 559 (1953), un acu-
sado de raza negra era condenado por un jurado compuesto
todo por personas de raza blanca extra´ıdo de un panel de
60 personas tambi´en todas blancas. Los nombres de estos
panelistas son sacados de una caja que contienen papele-
tas amarillas para las personas de color y papeletas blancas
para los blancos. El 5 % de las papeletas son amarillas y
no es seleccionado para el panel ninguna papeleta amarilla.
¿Cu´al es la probabilidad de que se d´e tal hecho?
Sea X = n´umero de panelistas de raza negra de 60
B(60, 0,05) P(3)(aprox)
p[X = 0] =
0,046069, usando B(60, 0,05)
0,049787, usando P(3)
En tal sentido un juez escribi´o: No solamente los ojos, sino
tambi´en la mente de la justicia, debe ser ciega para atribuir
esta situaci´on a un mero hecho fortuito
215
216. .
La distribuci´on o modelo Normal
Podemos resumir la importancia de la distribuci´on Normal
diciendo que:
(a) Un gran n´umero de fen´omenos reales pueden modelizar-
se con ella. Por ejemplo, las medidas f´ısicas del cuerpo
humano en una poblaci´on, las caracter´ısticas ps´ıquicas
medidas por tests de inteligencia o personalidad, las me-
didas de calidad en muchos procesos industriales, etc.
(b) Muchas otras distribuciones pueden aproximarse me-
diante la distribuci´on Normal.
(c) Todas aquellas variables que puedan considerarse cau-
sadas por un gran n´umero de peque˜nos efectos tienden
a distribuirse como una distribuci´on Normal.
216
217. Definici´on Se dir´a que la variable aleatoria X sigue una
distribuci´on Normal de par´ametros µ y σ si su funci´on de
densidad es de la forma:
fX (x) =
1
σ
√
2π
· e
−1
2
x − µ
σ
2
x ∈ R, σ > 0, µ ∈ R
Simb´olicamente escribiremos
X N (µ, σ)
Sus principales caracter´ısticas son:
(a) E[X] = µ
(b) V ar[X] = σ2
217
218. Algunas aproximaciones mediante la dis-
tribuci´on Normal
(a) Aproximaci´on de la distribuci´on binomial mediante la
distribuci´on Normal.
Teorema de De Moivre-Laplace Sea X una variable alea-
toria con distribuci´on B(n, p). Se verifica que si
p < 0,1 y np > 5 ´o 0,1 < p < 0,9 y n > 30
la distribuci´on de X tiende a ser N np,
√
npq .
218
219. (b) Aproximaci´on de la distribuci´on de Poisson mediante la
distribuci´on Normal.
Teorema Sea X una variable aleatoria con distribuci´on
P(λ). Se verifica que si
λ > 10
la distribuci´on de X tiende a ser N λ,
√
λ .
219