Sie sind auf Seite 1von 180

1

INTRODUCCION

AL

AJUSTE Y DISEO

DE

REDES TOPOGRAFICAS



Ral Mrquez








---- Ral Mrquez, e-mail: ingramarquez@hotmail.com ----
2
PREFACIO

Esta publicacin pretende ser una introduccin al ajuste mnimos cuadrados y diseo de
redes topogrficas.
En el tema 1, se desarrolla la teora clsica de los errores de observacin y su
propagacin desde la probabilidad y estadstica, tanto para observaciones
independientes como para observaciones correlacionadas.

En el tema 2, se presenta la resolucin de los sistemas de ecuaciones lineales
inconsistentes determinados e indeterminados, que aparecern luego al plantear el
sistema de las ecuaciones de observacin en una red topogrfica. Se tratan los casos de
las matrices de rango completo correspondientes a las redes vinculadas y las matrices
deficientes de rango, propias de las redes libres. La inversin de matrices simtricas, se
resuelve por el mtodo de diagonalizacin utilizando valores propios y vectores propios.

En el tema 3, se plantea el modelo funcional para redes libres y redes vinculadas a partir
de las ecuaciones de observacin. El modelo estocstico se plantea desde la variables
aleatorias multidimensionales con distribucin gaussiana. La propagacin de los errores
observacionales a los parmetros ajustados, se estima con las elipses de error absolutas a
un cierto nivel de confianza, las que, a su vez, se obtienen de la distribucin normal
multivariable.
Se introducen conceptos de fiabilidad interna y externa delineando la teora de Baarda.
As, los nmeros de redundancia y los mnimos errores detectables de los observables
contribuyen tanto a efectuar el control de calidad de la red, como a lograr un diseo
satisfactorio de la misma.

En el tema 4, se discute cmo lograr un diseo satisfactorio para una red topogrfica
mediante el mtodoprueba y error, asistido por computadora. La simulacin de la red
y su ajuste, dan una respuesta a priori sobre lo que sucedera con la medicin y el ajuste
de la red real.

Estos temas, correspondientes a la asignaturaClculo de Compensacin de las carreras
de Ingeniera en Agrimensura en nuestro pas, pueden desarrollarse en un curso
semestral con las debidas adaptaciones. Se requiere que los alumnos hayan cursado
previamente asignaturas tales como Probabilidad y Estadstica, lgebra Lineal,
Geometra Analtica y Topografa, entre otras.

Los profesionales independientes podrn utilizar el texto como material de consulta.
El procesamiento numrico de los ejemplos presentados, se realizaron con aplicaciones
MATLAB, desarrolladas para resolver el ajuste mnimos cuadrado y el diseo de redes
topogrficas.

San Juan, junio de 2009 Ral Mrquez







3
CONTENIDOS

TEMA 1: TEORIA DE LOS ERRORES DE OBSERVACION Y SU
PROPAGACION

Parte I: Teora de los errores de observacin

Errores groseros, sistemticos y accidentales 7
Analoga con el tiro al blanco 8
Propiedades de la media aritmtica . 12
La media aritmtica a partir de los mnimos cuadrados 13
Deduccin de la curva de Gauss ..14
Construccin de la curva de probabilidad 17
Media, varianza y desviacin estndar 19
El error promedio o error aritmtico . 20
El error probable 20
El error medio cuadrtico o error estndar de una observacin . 21
El error mximo tolerable .. 24
El error medio cuadrtico de la media aritmtica .. 25
Estimaciones de los errores medio cuadrtico de una observacin y de la media
aritmtica para una muestra de observaciones de tamao n 27
El criterio de Chauvenet para el saneamiento de muestras . 29
Intervalos de confianza para la media poblacional . 31
Intervalos de confianza para la varianza y la desviacin estndar ..31

Parte II: Propagacin de los errores de observacin

Propagacin de la varianza covarianza 33
La media ponderada . 40
El error medio cuadrtico o estndar de la observacin de peso 142
El error estndar de la media ponderada . 43
Observaciones de distinta precisin . 44
Observaciones de igual precisin . 44
Observaciones duplicadas 46
Propagacin de los errores en la nivelacin geomtrica .. 48
Nivelacin geomtrica ida y vuelta .. 50
Propagacin de los errores en la poligonacion . 53
Trabajo prctico 1: Parte I 59
Trabajo prctico 1: Parte II .. 61

TEMA 2: SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES

El espacio columna EC
A
de la matriz de coeficientes y el vector L de los trminos
independientes .. 69
La proyeccin ortogonal del vector L sobre el EC
A
.................................................... 70
La solucin mnimos cuadrados. El sistema de las ecuaciones normales . 72
Suficiencia e insuficiencia de rango de la matriz A de coeficientes y de la matriz
normal N 74
La solucin ptima de un sistema lineal inconsistente con matriz de coeficientes
deficiente de rango 77
4
Inversin de matrices simtricas 81
Valores propios, vectores propios y diagonalizacin. Propiedades .. 82
La pseudoinversa de Moore-Penrose y la solucin ptima de un sistema lineal
inconsistente con matriz A deficiente de rango 85
Ejemplos y aplicaciones 87
Trabajo Practico 2 . .90

TEMA 3: ANALISIS DE REDES TOPOGRAFICAS

Redes planas: observables y parmetros .. 92
Las ecuaciones de observacin linealizadas . 94
El modelo funcional . 94
La matriz de diseo A .. 95
La matriz de los trminos independientes L 95
La matriz de los pesos P . . 96
Las ecuaciones normales... 96
La solucin mnimos cuadrados 96
Ecuaciones de observacin para ngulos horizontales ..97
Ecuaciones de observacin para distancias reducidas.. .97
Redes planas libres y vinculadas.. .98
Ecuaciones de observacin para coordenadas. ..98
Redes altimtricas: observables y parmetros .102
Las ecuaciones de observacin para los desniveles observados. 103
Las matrices A, L, P y el modelo funcional 103
Las ecuaciones normales y la solucin mnimos cuadrados.. .104
Redes altimtricas libres y vinculadas 107
Propagacin de los errores observables a los parmetros ajustados... 109
Densidad de probabilidad y probabilidad acumulada 109
La media, expectacin o esperanza matemtica. 109
La varianza y la desviacin estndar. 109
Distribucin multivariable...112
Variables estocsticas multidimensionales..112
La funcin de densidad de probabilidad conjunta...112
Frecuencias o densidades marginales..113
Vector de medias.113
Varianza y covarianza.113
Correlacin. Independencia estocstica..114
La matriz varianza covarianza 116
Propagacin de la media. 117
Propagacin de la varianza covarianza. .117
Distribucin normal multivariable ..118
Las elipses de error como regiones de confianza 122
Propagacin de los errores de los observables a los parmetros ajustados. 129
La prueba chi-cuadrado... 132
Precisin del posicionamiento de los vrtices de una red plana: elipses de error y curva
podaria.134
Propagacin de los errores de observacin en el caso de una red altimtrica.138
Fiabilidad.138
Las matrices cofactor...139
Los nmeros de redundancia...140
5
Control de los errores groseros143
El test de Baarda..147
Fiabilidad interna.148
Fiabilidad externa.149
Trabajo practico 3153

TEMA 4: DISEO, SIMULACION Y AJUSTE DE REDES TOPOGRAFICAS

Ejemplo introductorio..158
Diseo por computadora: El mtodo prueba y error161
Simulacin...164
Ajustes libre y vinculado.164
La prueba F..173
Aplicaciones a redes planas y altimtricas..174
Trabajo prctico 4....179

BIBLIOGRAFIA:..180



---------------------------


















6










TEMA 1

TEORIA DE LOS ERRORES DE OBSERVACION
Y
PROPAGACION
























7
PARTE 1: TEORIA DE LOS ERRORES DE OBSERVACION

Mediciones repetidas de una dada magnitud por un mismo observador, con un mismo
instrumento y en circunstancias anlogas, no conducen siempre a un mismo resultado.
Este hecho muestra que las observaciones estn afectadas de errores que es propio
atribuir a los agentes que concurren a la medicin; es decir:

i) el observador
ii) el instrumento
iii) las condiciones ambientales

Por su naturaleza los errores de observacin se clasifican en tres categoras:

a) errores groseros
b) errores sistemticos
c) errores accidentales

a) Errores groseros: se caracterizan por el hecho de que su magnitud excede la que
pueda preverse teniendo en cuenta los medios con que se opera. As, por
ejemplo, si con un teodolito que permite apreciar el segundo de arco se han
medido los ngulos interiores de un triangulo plano y se han obtenido valores
cuya suma es 179 59 05 en lugar de 180, como debera resultar de una
medicin ideal, se deduce que se ha cometido un error grosero. El cuidado con
que el observador procede contribuye a disminuir la frecuencia de estos errores
contra lo cual es necesario precaverse mediante oportunas operaciones de
control. Los errores groseros se denominan tambin equivocaciones.

b) Errores sistemticos: estos errores afectan a toda una serie de mediciones segn
una misma ley y la influencia de ellos vara con las condiciones en que se hacen
las diversas observaciones. Estos errores provienen de la imperfeccin de las
teoras fsicas que sirven de fundamento a las experiencias, de los instrumentos
empleados y de ciertas particularidades del observador.
La teora de la refraccin atmosfrica, por ejemplo, solo prev condiciones
medias de la atmsfera a lo largo del camino de luz, y a veces el rayo luminoso
atraviesa una zona donde la densidad del aire sufre una fuerte discontinuad que
ocasiona una refraccin anmala. Todas las observaciones efectuadas en tales
condiciones resultan afectadas de un error sistemtico de esta naturaleza.
Cuando se investiga los errores propios de un instrumento para tener en cuenta
su influencia en la reduccin de las observaciones, sucede a menudo que la
determinacin no es hecha con absoluta exactitud y quedan pequeos errores
residuales que en forma sistemtica hacen sentir su influencia en las mediciones.
En una serie de mediciones efectuadas de la misma manera, dichos errores las
afectan siempre con el mismo signo. Se pueden minimizar antes, durante o
despus de efectuada la medicin:
Antes de la medicin se debe ajustar o calibrar cuidadosamente el instrumento,
por ejemplo errores de verticalidad, inclinacin y colimacin pueden corregirse
con los tornillos calantes y propios del instrumento. Durante la medicin,
utilizando mtodos tales que al promediar las lecturas se eliminen los errores al
actuar estos con signos opuestos (caso de los errores remanentes de inclinacin y
colimacin que se eliminan con las lecturas conjugadas, y el error de trazo del
8
crculo que se elimina leyendo en dos o ms sectores). Despus de la medicin,
determinando el valor del error sistemtico y luego haciendo la correccin
correspondiente (por ejemplo, es el caso del error de ndice en la medicin de
ngulos verticales con teodolitos que tienen nivel testigo). Anlogo es el caso de
distancias medidas con cintas de acero contrastadas.

c) Errores accidentales: Depuradas las observaciones de errores groseros
(equivocaciones) y sistemticos, quedan an afectadas de errores inevitables que
derivan principalmente de las imperfecciones de nuestros sentidos y de las
perturbaciones irregulares del medio ambiente en que se efectan las
observaciones y que hacen que estos errores llamados accidentales o casuales,
ocurran con igual frecuencia positivos y negativos variando en forma continua
su valor absoluto entre cero y un limite fcil de establecer en cada serie de
observaciones y que es caracterstico de la precisin de las observaciones. Como
se puede ver, los errores accidentales pueden considerarse variables aleatorias
continuas y deben ser tratados con las herramientas que proveen la probabilidad
y la estadstica.

Analoga con el tiro al blanco

El tiro al blanco se presta ventajosamente para analizar las distintas clases de
errores, siempre que se asimilen a errores de observacin las desviaciones de los
impactos respecto del centro del blanco, figura 1.
Observando un blanco circular sobre el que un tirador haya hecho un nmero grande
de disparos y donde imaginemos trazados dos ejes ortogonales con origen en el
centro del blanco, podremos anotar los siguientes hechos:

1.- La zona de mayor densidad de impactos no coincide, en general, con el centro
del blanco.
2.- La cantidad de impactos disminuye radialmente a partir de un determinado punto
que es el centro de simetra de la distribucin de impactos.
3.- El nmero total de impactos es inferior al nmero de disparos efectuados.

El hecho1, se debe a las siguientes causas:
i) un defecto visual del tirador
ii) una imperfeccin del arma (sistema de puntera)
iii) una perturbacin ambiental (accin del viento, por ejemplo)
El hecho 1 puede asimilarse a los errores sistemticos.

En el hecho 2, se observa que una vez descontados los disparos que no dieron en el
blanco y eliminadas las causas de que el centro de simetra no coincida con el centro
del blanco, uno cualquiera de ellos (impactos) a la derecha del centro se corresponde
con otro a igual distancia a la izquierda; a medida que nos alejamos del centro,
disminuye la cantidad (densidad) de impactos. El hecho 2 puede asimilarse a los
errores accidentales puesto que:
i) los impactos a la derecha (del centro) son tan frecuentes como los disparos a
la izquierda.
ii) Las distancias pequeas (desde el centro) son ms frecuentes que las
grandes.

9
El hecho 3 se debe a las siguientes causas:
i) inexperiencia del tirador.
ii) descuido o falta de concentracin del tirador.

En la siguiente figura se resumen los hechos 1, 2 y 3

figura 1

En la siguiente figura se representa la funcin de densidad de los
disparos: ) , ( y x f = :

figura 2
10

Consideremos ahora una direccin arbitraria r en el plano x-y y cortemos la superficie
) , ( y x f = con un plano perpendicular al plano x-y:


figura 3

La figura 3 muestra la distribucin de los desvos de los impactos respecto del centro de
gravedad O y la funcin ) (r f = es la funcin de frecuencia o densidad de
probabilidad puesto que los desvos son de naturaleza estocstica.

Sea ahora una serie numerosa de observaciones de una magnitud X; es decir:

X = {x
1
, x
2
,, x
n
}

donde x
i
i = 1, n son las observaciones repetidas de la magnitud X. Llamemos X al
verdadero valor de dicha magnitud. Nunca llegaremos a conocer el verdadero valor,
solo podemos estimarlo mediante la media aritmtica X :


[ ]
n
x
X = (1)

donde [x] es la notacin de Gauss y significa la suma de las observaciones x
i
para i = 1,
n.

Supongamos a las observaciones libres de errores groseros y sistemticos; es decir
afectadas solamente por los errores accidentales.
Se define:

error aparente e
i
: e
i
= x
i
- X ; i = 1, n
correccin aparente v
i
: v
i
= X - x
i
; i = 1, n
entonces: v
i
= - e
i
; i = 1, n

error verdadero i:
i
= x
i
X ; i = 1, n
correccin verdadera i:
i
= X x
i
; i = 1, n
entonces:
i
= -
i
; i = 1, n

11
La media aritmtica puede expresarse:

X = x
i
e
i
= x
i
+ v
i
; i = 1, n

El verdadero valor puede expresarse:

X = x
i
-
i
= x
i
+
i
; i = 1, n

Puesto que el verdadero valor (o valor exacto) de una magnitud no se puede conocer, se
lo estima (o aproxima) con la media aritmtica de las observaciones afectadas solamente
de los errores accidentales, entonces:

X = X + (2)

donde es la correccin a X (si consideramos a X como una observacin ms).
Los errores aparentes son desvos contra la media aritmtica, mientras que los errores
verdaderos son desvos contra el verdadero valor. Tanto los errores aparentes como la
media aritmtica son valores tangibles.
En analoga con el tiro al blanco, la distribucin de probabilidad de los errores de
observacin presenta el aspecto de la figura 4:


figura 4

La funcin es la funcin de frecuencia o densidad de probabilidad de los errores (el
error de observacin es una variable aleatoria). Mas adelante deduciremos la forma
matemtica o expresin matemtica de . La varianza (y tambin la desviacin
estndar) de la variable aleatoria e, mide la concentracin de las observaciones
alrededor de la media aritmtica. Llamaremos medicin al conjunto de observaciones
repetidas de una dada magnitud. La precisin de la medicin est definida por la
desviacin estndar; cuanto menor sea sta tanto ms precisin tendr la medicin.
La exactitud de una medicin depende de la diferencia entre la media aritmtica y el
verdadero valor de la magnitud dada. As, a menor diferencia mayor exactitud. La serie
de grficas siguientes ilustra los conceptos de precisin y exactitud de una medicin.
12

figura 5a figura 5b

figura 5c figura 5d

Ms adelante, cuando tengamos la ecuacin de la funcin de densidad de probabilidad o
frecuencia de los errores de observacin, definiremos matemticamente la medida de la
precisin.

Propiedades de la Media Aritmtica

Primera Propiedad: La suma de los errores aparentes es igual a cero: [e] = 0

De la definicin de la media aritmtica (1):

n X = [x] = x
1
+ x
2
+ + x
n

x
1
+ x
2
+ + x
n
n X = 0
x
1
+ x
2
+ + x
n
( X + X + + X ) = 0
(x
1
- X ) + (x
2
- X ) + + (x
n
- X ) = 0

pero x
i
- X = e
i
, entonces: e
1
+ e
2
+ + e
n
= 0 [e] = 0 c.q.d.

Segunda Propiedad: La suma de los cuadrados de los errores aparentes es mnima:
[e
2
] = mn.

13
Sea X la media aritmtica y un estimador cualquiera del verdadero valor X de una
magnitud dada, tal que X . Llamemos
i
al desvo de una observacin x
i
respecto de
:
e
i
= x
i
- X x
i
= e
i
+ X

i
= x
i
- x
i
=
i
+
i
+ = e
i
+ X

entonces:
i
= e
i
+ ( X -)
elevando al cuadrado ambos miembros: (
i
)
2
= (e
i
+ ( X -))
2

desarrollando:
i
2
= e
i
2
+ 2 ( X -) e
i
+ ( X -)
2

sumando m.a.m.: [
i
2
] = [e
i
2
] + 2 ( X -)[ e
i
] + [( X -)
2
]
por la primera propiedad de la media aritmtica : [e] = 0, entonces:

[
i
2
] = [e
i
2
] + n ( X -)
2


puesto que ( X -)
2
> 0 [
i
2
] > [e
i
2
] [e
i
2
] < [
i
2
] ; es decir que cualquiera sea
el estimador seleccionado se cumplir siempre [e
i
2
] < [
i
2
]. Se tiene entonces la
segunda propiedad de la media aritmtica: [e
i
2
] = mnimo.

La media aritmtica a partir de los cuadrados mnimos.

Partiendo de la media aritmtica, la segunda propiedad establece que la suma de los
cuadrados de los errores aparentes es mnima. Partiendo ahora de los cuadrados
mnimos, deduciremos la expresin de la media aritmtica.
Sea { x
1
, x
2
,, x
n
} una serie de observaciones repetidas, libres de errores groseros y
sistemticos, de una magnitud cuyo verdadero valor es X. Sea un estimador
desconocido de X. Denotaremos con
i
el desvo o error de x
i
respecto de .


i
= x
i
-

i
2
= (x
i
- )
2

Sumando m.a.m.: [
i
2
] = [(x
i
- )
2
] =

=
n
i 1
(x
i
-)
2
= f() = mnimo
La condicin necesaria de mnimo es que se anule la derivada primera: f () = 0
f () = -2

=
n
i 1
(x
i
- ) = 0

=
n
i 1
(x
i
- ) = 0

=
n
i 1
x
i
-

=
n
i 1
= 0

=
n
i 1
x
i
= n

=
[ ]
n
x
= X
La derivada segunda es: f () = 2n > 0, entonces para =
[ ]
n
x
existe mnimo de la
funcin f(). La condicin de mnimos cuadrados conduce entonces a la media
aritmtica.





14
Deduccin de la curva de Gauss

La funcin es la funcin de frecuencia o densidad de probabilidad de los errores y es
la ecuacin de la curva de Gauss. Se deduce a partir de:

Los postulados de Gauss:

1.- La media aritmtica es el valor ms probable.
2.- Son igualmente probables (frecuentes) errores positivos y errores negativos:
(e
i
) = (-e
i
). La funcin de frecuencia o densidad de probabilidad , es simtrica.
3.- Los errores pequeos son mas probables (frecuentes) que los errores grandes; es
decir, la funcin es decreciente respecto de la magnitud (valor absoluto) de los
errores.
4.- Siempre, el error est comprendido entre - y + .

Sea { x
1
, x
2
, , x
n
} una serie muy numerosa (n ) de observaciones repetidas de una
dada magnitud. El valor ms probable es la media aritmtica (postulado 1).
La probabilidad a-priori de que se presente el conjunto o sistema de errores aparentes
e
i
= x
i
- X ; i = 1, n es la probabilidad conjunta:

p = p (e
1
, e
2
,, e
n
) = (e
1
) de
1
(e
2
) de
2
(e
n
) de
n
(3)

considerando a los e
i
independientes.
Puesto que el valor de la media aritmtica es el ms probable, el sistema de los errores
aparentes {e
1
, e
2
,, e
n
}debe ser el ms probable; es decir, p (e
1
, e
2
,, e
n
) = mximo.
De (3): (e
1
) de
1
(e
2
) de
2
(e
n
) de
n
= mximo
Puesto que de
1
= de
2
= = de
n
:

(e
1
)

(e
2
)(e
n
) = mximo (4)

Tomando logaritmo natural en ambos miembros de (4):

ln(e
1
) + ln(e
2
) ++ ln(e
n
) = Cte

Derivando respecto de e
i
:

0
) ( ln
...
) ( ln ) ( ln
2
2
1
1
= + + +
n
n
de
e d
de
e d
de
e d
(5)

Multiplicando y dividiendo cada trmino del primer miembro de (5) por e
i
:

0
) ( ln
...
) ( ln ) ( ln
2
2 2
2
1
1 1
1
= + + +
n
n n
n
e
de e
e d
e
de e
e d
e
de e
e d
(6)

Teniendo en cuenta la primera propiedad de la media aritmtica:

[e] = e
1
+ e
2
+ + e
n
= 0 (7)

15
Para el cumplimiento simultneo de (6) y (7) deber, necesariamente ocurrir que:

0
) ( ln
= K
de e
e d
(8)

Es decir; Ke
1
+ Ke
2
++ Ke
n
= K (e
1
+ e
2
+e
n
) = K[e] = 0

De la (8):

d (ln (e)) = K e de (9)

A fin de evitar confusiones en la notacin, llamaremos de ahora en ms x (minscula
manuscrita) a los errores aparentes; es decir x = e. Expresamos (9) de la siguiente
manera:

dx x K x d = ) ( ln

Integrando ambos miembros:



= dx x K dx x d ) ( ln C
x
K x + =
2
) ( ln
2

Hacemos C = ln C
1

1
2
ln
2
) ( ln C
x
K x + =
2
ln ) ( ln
2
1
x
K C x =

Es decir:
2
) (
ln
2
1
x
K
C
x
=


2
2
1
) (
x
K
e
C
x
=


2
1
2
) (
x
K
e C x =

Por el postulado 3, 0
2
<
K
. Haciendo
2
2
h
K
= donde h es el mdulo de precisin de
Gauss:


2 2
1
) (
x h
e C x

= (10)

Segn el postulado 4:

+

= + = 1 ) ( ) ( x p dx x

entonces:

=1
2 2
1
dx e C
x h


Haciendo el cambio de variable: hx t = dx h dt = , entonces:

16
1
2
1
=

dt e
h
C
t


Hallaremos el valor de la integral

dt e
t
2
. Puesto que la curva de frecuencia o
densidad de probabilidad (10) es simtrica respecto del eje vertical (postulado 2), resulta
evidente que:

dt e
t
2
=

0
2
2 dt e
t


El mtodo para hallar sta integral se debe a Sturm:
Consideremos el sistema de coordenadas trirectangulares (O, T, U, V) y la curva
2
t
e v

= rotando alrededor del eje V, figura 6.


figura 6

En el plano VOT, el rea comprendida por la curva
2
t
e v

= y el eje OT, es:

=
0
2
dt e A
t


Anlogamente, el rea comprendida por la curva
2
t
e v

= y el eje OU, es:

=
0
2
du e A
u


Entonces:

17


+ +
+
=
0 0
) ( 2
2 2
du dt e A
u t


Para cualquier punto P en el plano UOT, se tiene:
2 2 2 2
u t r OP + = =
Entonces la ecuacin de la superficie de revolucin de la curva alrededor del eje V, es:


) (
2 2
u t
e v
+
=

Luego A
2
es igual a un cuarto del volumen comprendido entre la superficie de
revolucin y el plano UOT. Si consideramos una serie de cilindros concntricos de
radio r, el volumen comprendido entre la superficie y el plano OUT, es en el primer
octante:



+ +

= =
0 0
2
2 2 dr e r dr v r VOLUMEN
r


Cambiando de variable:
2
r p = dr r dp 2 =
r
dp
dr
2
= , entonces:

+
=
0
2
2
r
dp
e r VOLUMEN
p
=

=

0
0
p p
e dp e = =

) (
0
e e

El volumen total es, entonces:

= =
2
4 A VOLUMEN
4
2

= A
2

= A , luego:

= = = =

+

2
2 2 2
0
2 2
A dt e dt e
t t
=

dt e
t
2


Se tiene entonces:

1
1 1
2
= =

h
C
dt e
h
C
t

h
C =
1


Finalmente la ecuacin de la curva de frecuencia o densidad de probabilidad de los
errores de observacin (curva de Gauss), es:


2 2
) (
x h
e
h
x

=

(11)

donde h se denomina medida o mdulo de precisin de Gauss.

Construccin de la curva de probabilidad

Derivando (11) respecto de x e igualando a cero:
18

0 2 ) 2 ( ) ( ' '
2 2 2 2
3
2
= = = =
x h x h
xe
h
x h e
h
x y



> = > = 0 0 ) ( ' x x en 0 = x existe un punto estacionario.
La derivada segunda:

) 2 1 ( 2 ) 2 ( 2 ) ( ' '
2 2
3
2 2
3
2 2 2 2 2 2
x h e
h
e x h e
h
x
x h x h x h
= =




en 0 = x , 0 2 ) ( ' '
3
< =

h
x entonces en 0 = x existe un mximo.

Para hallar los puntos de inflexin, anulamos la derivada segunda:

0 ) 2 1 ( 2 ) ( ' '
2 2
3
2 2
= =

x h e
h
x
x h

0 ) 2 1 (
2 2
= x h
2
2
2
1
h
x =

Las abscisas de los puntos de inflexin, son:


2
1
h
x = (12)

La curva de Gauss presenta el siguiente aspecto:


figura 7

Grafiquemos ahora dos curvas superpuestas para mdulos de precisin iguales a 1 y 2,
respectivamente:
19


figura 8

Se ve claramente que cuanto mayor es el valor de h, mayor es la concentracin de
errores alrededor del valor ms probable (error cero); es decir, mayor es la precisin,
resultando as, ms apuntada la curva de Gauss.

Media, varianza y desviacin estndar de la variable aleatoria
x
.

La esperanza matemtica o media de los errores de observacin x es:


+

+

= = = dx e x
h
dx x x x E
x h
2 2
) ( ) (

; x h x h d
2 2 2
2 ) ( = dx x
2
2 2
2
) (
h
x h d
dx =

0
1 1
2
1
2
1
) (
2
) (
2 2 2 2
2 2
2
= =

+
= = =
+ +

e e h
e
h
x h d e
h
h
x E
x h x h



La media o esperanza de los errores de observacin es igual acero: 0 ) ( = = x E .

la varianza es:



+

+

+

= = = = dx e x
h
dx x x dx x x x Var
x h
2 2
2 2 2 2
) ( ) ( ) ( ) (



cambio de variables: hx t = dx h dt =
h
dt
dx =


+


+

= = dt e t
h h
dt
e
h
t h
x Var
t t
2 2
2
2 2
2
1
) (

, pero

=
2
2
2

dt e t
t
, entonces la

varianza es:
2 2
2
2
1
2
1
) (
h h
x Var = = =


2
2
2
1
h
=

20
La desviacin estndar es:
h 2
1
= .

Ntese que son las abscisas de los puntos de inflexin en la curva de Gauss. Cuanto
mayor es el modulo de precisin h, tanto menor es la desviacin estndar . La calidad
de una serie de observaciones repetidas de una magnitud dada, depende entonces del
valor de . La desviacin estndar, es pues, una medida de la precisin.

El error promedio o error medio aritmtico: e
a


Definicin:

+

+

+

= = =
0
0 ;
2
) (
2 2 2 2
x dx e x
h
dx e x
h
dx x x e
x h x h
a



dx x h x h d
2 2 2
2 ) ( =
2
2 2
2
) (
h
x h d
xdx = , entonces:

=
0
2 2 2
dx x e
h
e
x h
a

=
0
2
2 2
2
) ( 2 2 2
h
x h d
e
h
x h

=
0
2 2
2
) (
2
2 2 2
x h d e
h
h
x h



[ ]
h
e
e h
e
h
e
x h
a
1 1 1
0
1
0
2 2
=

=
+
=
+


h
e
a
1
=

Puesto que
2
1

= h , se tiene:

2
=
a
e

La relacin entre el error medio aritmtico y la desviacin estndar, es:


a a
e e 253 . 1 798 . 0 = =

Para un conjunto finito de observaciones (una muestra de tamao n), el error medio
aritmtico es:

n
x
e
n
i
i
a

=
=
1


El error probable: e
p


Es el error correspondiente al conjunto de observaciones de probabilidad p = 0.5 (50%);
es decir:



= = =

p p
p
p
e
x h
e
e
e
dx e
h
dx x dx x
0 0
5 . 0
2
) ( 2 ) (
2 2



grficamente se interpreta:
21

figura 9

Haciendo el cambio de variable: x h z 2 = dx h dz 2 =
2 h
dz
dx =

Los lmites de integracin cambian con el cambio de variable: x h z 2 =
p
e h z 2 =
z = 0, entonces:

dz e
h
h
h
dz
e
h
p p
e h
z
e h
h
z
h


= =
2
0
2
2
0
2
2
2
2
2
2
2
2
2
5 . 0

25 . 0
2
1
2
0
2
2
=


dz e
p
e h
z



De la tabla de reas bajo la curva normal tipificada, se tiene que al valor del rea igual a
0.25, le corresponde el valor de z = 0.673, entonces:

673 . 0 2 = =
p
e h z 673 . 0
2
1
673 . 0 = =
h
e
p


La relacin entre el error probable e
p
y la desviacin estndar, es:


p p
e e 486 . 1 673 . 0 = =

El error medio cuadrtico o error estndar: e
mc


definicin:
2
2 2 2
2
2
1
) (
2 2
h
dx e x
h
dx x x e
x h
mc
= = = =

+



entonces: = =
2
1
h
e
mc


El error medio cuadrtico es la desviacin estndar.
El parmetro ms usado actualmente para estimar la precisin de una serie de
observaciones es el error medio cuadrtico o desviacin estndar, en forma
prcticamente excluyente. Este parmetro representa el error de una observacin en una
22
determinada serie de observaciones de una magnitud dada. Tambin se lo conoce como
el error estndar de una observacin.

Determinaremos ahora el porcentaje de los errores que no superan al error estndar en
una serie repetida de una dada magnitud. La probabilidad de que un error x est
comprendido entre - y +, es:



+

= = +


dx e
h
dx x x p
x h
2 2
) ( ) (

cambio de variable: hx t = dx h dt =
h
dt
dx =

los lmites de integracin: hx t = h t h t = = ;
2
1
= t , entonces:




+

= = +
2
2
0
2
2
2
2
2 2 2
) ( dt e
h
dt
e
h
x p
t t



Desarrollando
2
t
e

en serie de Mc Laurin:

1 ) 0 (
2
= =

y e y
t

0 ) 0 ( ' 2 '
2
= =

y e t y
t

2 ) 0 ( ' ' ) 2 1 ( 2 ' '
2
2
= =

y t e y
t

0 ) 0 ( ' ' ' ) 6 4 ( 2 ' ' '
3
2
= =

y t t e y
t

12 ) 0 ( ' ) 6 24 8 ( 2 '
2 4
2
= + =
v t v
y t t e y
0 ) 0 ( ) 60 80 16 ( 2
3 5
2
= + =
v t v
y t t t e y
120 ) 0 ( ' ) 60 360 240 32 ( 2 '
2 4 6
2
= + + =
v t v
y t t t e y

.

entonces: L + + =

6 2
1
6 4
2
2 t t
t e
t


Luego:
dt
t t
t x p

+ + = +
2
2
0
6 4
2
6 2
1
2
) ( L



integrando la serie de potencias:
23
6823 . 0
0
42 10 3
2
) (
2
2
7 5 3
=

+ + = + L
t t t
t x p



es decir: % 23 . 68 6823 . 0 ) ( ) ( = = = + x p x p

La probabilidad de que un error no supere en valor absoluto una desviacin estndar,
equivale aproximadamente al 68.23 %. Es decir que en una serie de 1000 observaciones,
solamente 317 superaran a la media aritmtica en valor absoluto en ms de una
desviacin estndar, mientras que 683 no lo haran.

Que sucede con el error aritmtico?
Cambiando los lmites de integracin en el desarrollo de Mc Laurin, se tiene:

5750 . 0
0
42 10 3
2
) (
7 5 3
=

+ + =

L
t t t
t e x p
a


La probabilidad de que un error no supere en valor absoluto al error medio aritmtico e
a

equivale aproximadamente al 57.5%. Quiere decir que en una serie de 1000 errores, 425
superaran al error medio aritmtico, mientras que 575 se mantendran acotados por
aquel. Esto significa que el error estndar es mas seguro que el error medio aritmtico
para estimar la precisin de las observaciones.
Calcularemos ahora la probabilidad de que un error no supere en valor absoluto a dos y
tres veces la desviacin estndar. Agregaremos ms trminos a la serie de Mc Laurin.
Para ello usaremos el siguiente cuadro:

1 3 10 42 199 981 4888 24420 122077 610359
2 7 32 157 782 3907 19532 97657 488282
5 25 125 625 3125 15625 78125 390625
5 5 5 5 5 5 5

La primera fila son los denominadores de los trminos de la serie; la segunda fila son
las diferencias entre dos nmeros consecutivos de la primera. La tercera fila son las
diferencias entre dos nmeros consecutivos de la segunda. La cuarta fila, todos iguales a
5, son los cocientes entre dos nmeros consecutivos: siguiente dividido por anterior.
Con estas reglas, puede extenderse la primera fila en forma indefinida.
Luego el desarrollo en serie de Mc Laurin es:

L + + + + + =


610359 122077 24420 4888 981 199 42 10 3
19 17 15 13 11 9 7 5 3
2 t t t t t t t t t
t dt e
t


entonces:

% 71 . 95 9571 . 0
610359 981 199 42 10 3
2
) 2 (
0
2 19 11 9 7 5 3
= =

+ + + + = L L
t t t t t t
t x p



24
El valor que da la tabla de reas bajo la curva normal tipificada es igual a 0.9544 (95.44
%). La diferencia se debe, tal vez, a que el nmero de trminos de la serie es
insuficiente.
De la tabla de reas bajo la curva normal tipificada se obtiene:

% 74 . 99 9974 . 0 ) 3 ( = = x p

Estos resultados pueden expresarse grficamente:

O
x
y
99.74%
95.44%
68.25%
2 2
) (
x h
e
h
x

=

3 2 2 3


figura 10

Puesto que la probabilidad de que un error supere 3 en valor absoluto es muy baja (
0.26 %), podemos considerar como errores groseros aquellos cuyos valores absolutos
superen 3.

El error mximo tolerable: e
t


Si en la tabla de reas bajo la curva normal tipificada buscamos la abscisa z
correspondientes a 0.99 (0.495 para las reas tabuladas de 0 a z), se obtiene z
t
= 2.575.
Recordando que al error probable le corresponde el valor z
p
= 0.673, resulta que:

8262 . 3
673 . 0
575 . 2
= =
p
t
z
z

Se adopta como tolerancia z
t
= 2.575; es decir, el error cuya probabilidad de no ser
superado es 0.99 (99 %).
De la relacin anterior se concluye que:


8262 . 3 =
p
t
e
e

entonces: e
t
= 3.8262 e
p
pero: e
p
= 0.673

25
entonces: e
t
= 3.862 0.673 = 2.6

Los errores mayores que e
t
son altamente improbables (slo el 1%) y si se detectan,
deben ser eliminados de la medicin.

Error medio cuadrtico de la media aritmtica:

Sea el caso en que se tiene un gran nmero de observaciones de una dada magnitud.
Como es ya costumbre generalizada en las aplicaciones prcticas dar a los errores el
sentido de las correcciones, en lo que sigue formaremos para el clculo del error medio
cuadrtico de una observacin, las diferencias:

= X v
i
x
i
i = 1, n

donde X es, como ya vimos, la media aritmtica y x
i
las observaciones de la magnitud
en cuestin. La probabilidad de la correccin v de cualquiera de las observaciones es:


2 2
) (
v h
e
h
v p

=

(13)

La probabilidad del sistema de correcciones v
i
, i = 1, n es:


2 2 2
2
2 2
1
2
) ( ) ( ) ( ) , , , (
2 1 2 1
n
v h v h v h
n n
e
h
e
h
e
h
v p v p v p v v v p

= =

L L L


) (
2 1
2 2
2
2
1
2
) , , (
n
v v v h
n
n
n
e
h
v v v p
+ + +
=
L
L



Empleando la notacin de Gauss: [ ]
2 2
2
2
1 n
v v v vv + + + = L , se tiene:


[ ] vv h
n
n
n
e
h
v v v p
2
) , , (
2 1

=

L

Puesto que el error medio cuadrtico es la desviacin estndar, se puede estimar la suma
de los cuadrados de las correcciones por n
2
; es decir:

[ ]
2
n vv =

y as resulta:


2 2
) , , (
2 1

n h
n
n
n
e
h
v v v p

= L
( )
( )
2
2

n h
n
n
e
h

= (14)

Puesto que la probabilidad del sistema de correcciones v
i
, i = 1, n es equivalente a la
probabilidad de la media aritmtica X , comparando las expresiones (13) y (14), se ve
que (14) puede ser considerada como la probabilidad de una observacin ficticia
26
promedio de n observaciones, cuyo mdulo de precisin es n h ; mientras que el
mdulo de precisin de una observacin es h. Es decir, que la precisin aumenta con la
raz cuadrada del nmero de observaciones. Habida cuenta que el error medio
cuadrtico de una observacin es inversamente proporcional al mdulo de precisin h,
se tiene:


h 2
1
=

Para la observacin ficticia (la media aritmtica X ), se tiene:


) ( 2
1
h n
X
=
& & &


que es el error medio cuadrtico de la media aritmtica X .
De las dos ltimas expresiones:

n
X
=



entonces:


n
X

=
& & &
(15)

Esta formula muestra que repitiendo las observaciones un nmero suficientemente
grande de veces, se puede hacer el error medio cuadrtico (error estndar) tan pequeo
como se quiera. Esto es cierto si se supone que todos los errores son accidentales, pero
la experiencia indica que en toda medicin se presentan junto con estos, los errores
sistemticos, a veces tan pequeos que se ponen en evidencia despus que los errores
accidentales han sido reducidos luego de un gran nmero de repeticiones, y otras veces
tan grandes que se manifiestan despus de pocas observaciones. En general, la
repeticin de observaciones reduce el error del resultado (el error de la media
aritmtica) muy rpidamente al principio mientras que el efecto de los errores
accidentales predomina sobre los sistemticos. Es de suma importancia el hecho de que
tarde o temprano se alcanza un punto en que la influencia de los errores accidentales es
ms pequea que la de los errores sistemticos. Ms all de este punto no hay ventajas
en aumentar el nmero de observaciones. La siguiente figura muestra la disminucin de
X& & &
con el aumento de n, slo para los errores accidentales:

27

figura 11

Por razones de simplicidad se ha considerado = 1.
En la prctica, el error estndar de una observacin se identifica con la precisin del
instrumento (declarada por el fabricante), mientras que el error de la media aritmtica es
el error estndar del resultado de la medicin. Por ejemplo, se desea saber cuantas veces
debe medirse una direccin horizontal con un teodolito que garantiza un error estndar
= 6, cuando se quiere obtener un error estndar menor o igual que 3 en la
determinacin de dicha direccin horizontal. Entonces:


X
n
& & &

" 3
" 6

n

" 3
1
" 6

n
2
" 3
" 6
= n 4 n

El nmero de observaciones repetidas debe ser, al menos, igual a cuatro.

Estimaciones de
X
y
& & &
para una muestra de observaciones de tamao n:

En la prctica se trabaja generalmente con un nmero reducido de observaciones; es
decir, con una muestra de tamao n pequeo (n 30).
La media aritmtica se aproxima al verdadero valor de la magnitud conforme aumenta
el nmero de observaciones. Tericamente, la media aritmtica alcanza al verdadero
valor en el lmite cuando n tiende a infinito; es decir:


>
= =
n
X E X X ) ( lim

En las aplicaciones prcticas n ser tal que X dista de X (verdadero valor) en una
cantidad no despreciable; es decir:

X X =
+ = X X

El verdadero error de una observacin x
i
es:


i
= x
i
X = x
i
( X + )
28

i
= (x
i
- X ) -

Pero x
i
- X = e
i
: error aparente, entonces:
i
= e
i
-
Puesto que:
i
= -
i
(correccin verdadera) y e
i
= -v
i
(correccin aparente), se tiene:

-
i
= -v
i
-
i
= v
i
+

La desviacin estndar puede expresarse por:
[ ] [ ]
n n

= = , luego:
[ ]
2 2
2
2
1
2
n
n + + + = = L (16)

Pero
i
= v
i
+ para i = 1, n, reemplazando en (16):


2 2
2
2
1
2
) ( ) ( ) ( + + + + + + =
n
v v v n L

Desarrollando los cuadrados de los binomios en el segundo miembro y agrupando:

[ ] [ ]
2 2
2 n v vv n + + =

De la primera propiedad de la media aritmtica: [ ] 0 = v , entonces:

[ ]
2 2
n vv n + = (17)

Puesto que no conocemos el valor de , lo estimamos con el error estndar de la media
aritmtica:
n
X

= . Reemplazando en (17) y considerando como el estimador


muestral de la desviacin estndar poblacional :

[ ] [ ]
2
2
2

+ = + = vv
n
n vv n [ ] vv n =
2 2
[ ] vv n = ) 1 (
2
, entonces:


[ ]
1

=
n
vv
(18)

El estimador de la desviacin estndar poblacional (error estndar), es:


[ ]
1

=
n
vv
(19)

Entonces, el estimador del error estndar de la media aritmtica es:


[ ]
) 1 (
=
n n
vv
X

)
(20)


29
Ejemplo: Se han efectuado diez observaciones de una distancia:

i) Aplicar el criterio de Chauvenet para sanear la muestra
ii) Hallar la media aritmtica, el error estndar de una observacin y el error
estndar de la media aritmtica para la muestra saneada.
iii) Hallar un intervalo de confianza del 95% para la media poblacional.
iv) Hallar un intervalo de confianza del 95% para la varianza y para la
desviacin estndar.

La muestra original:

registro observacin x
i
(m)
1 330.271
2 330.275
3 330.269
4 330.272
5 330.274
6 330.270
7 330.261
8 330.273
9 330.272
10 330.268

i) El criterio de Chauvenet: Se conservan aquellas observaciones comprendidas
entre un limite inferior L
I
y un limite superior L
S
, tales que:


n
L x L p
S i I
2
1
1 ) ( =

donde n es el tamao de la muestra y:


c I
z X L =
c S
z X L + =

z
c
es el valor crtico obtenido de la tabla de reas bajo la curva normal tipificada.

figura 12



30
x
i
(m)
i i
x X v =

2
i
v
330.271 -0.0005 2.5 10
-7
330.275 -0.0045 2.025 10
-5
330.269 0.0015 2.25 10
-6
330.272 -0.0015 2.25 10
-6
330.274 -0.0035 1.225 10
-5
330.270 0.0005 2.5 10
-7
330.261 0.0095 9.025 10
-5
330.273 -0.0025 6.25 10
-6
330.272 -0.0015 2.25 10
-6
330.268 0.0025 6.25 10
-6

[ ]
m
n
x
X 2705 . 330 = = [ ] 0 = v [ ]
2 4
10 425 . 1 m vv

=
[ ]
1

=
n
vv
= m 00398 . 0
1 10
10 425 . 1
4
=


(error estndar de una observacin)
[ ]
) 1 (

=
n n
vv
X
= m 00126 . 0
) 1 10 ( 10
10 425 . 1
4
=

(error estndar de la media aritmtica)


Aplicamos el criterio de Chauvenet para sanear la muestra:


n
L x L p
S i I
2
1
1 ) ( = = 95 . 0
20
19
20
1
1 = =

De la tabla de reas bajo la curva normal tipificada, se tiene z
c
= 1.96, entonces:


c I
z X L = = 330.2705 1.96 0.00398 = 330.263 m

c S
z X L + = = 330.2705 + 1.96 0.00398 = 330.278 m

Debe eliminarse la observacin 7: x
7
= 330.261 m, puesto que x
7
< L
I
.

ii) La muestra saneada, sin la observacin x
7
, tiene ahora tamao n = 9.

x
i
(m) v
i
(m) v
i
2
(m2)
330.271 0.00056 3.136 10
-7
330.275 -0.0034 1.156 10
-5
330.269 0.0026 6.76 10
-6
330.272 -0.00044 1.936 10
-7
330.274 -0.0024 5.76 10
-6
330.270 0.0016 2.56 10
-6
330.273 -0.0014 1.96 10
-6
330.272 -0.00044 1.936 10
-7
330.268 0.0036 1.296 10
-5

m X 2716 . 330 = [ ] m v 00028 . 0 = [ ]
2 5
10 22608 . 4 m vv

=

m 0023 . 0 = m
X
00077 . 0 =

31
Criterio de Chauvenet:

n
L x L p
S i I
2
1
1 ) ( = = 94 . 0
18
17
18
1
1 = = z
c
= 1.91
L
I
= 330.267 m L
S
= 330.276 m

Se aceptan ahora las nueve observaciones y la muestra est saneada con media
aritmtica m X 2716 . 330 = , error estndar de una observacin m 0023 . 0 = y error
estndar de la media aritmtica m
X
00077 . 0 = .

iii) Intervalo de confianza del 95% para la media.

grados de libertad (redundancia): = n -1 = 9 -1= 8
nivel de significacin : = 0.05 (5%)
t_crtico (tablat de Student) : 31 . 2
975 . 0 , 8
2
1 ,
= = =

t t t
c

c I
t X L = = 330.2716 - 2.31 0.00077 = 330.270 m

c S
z X L + = = 330.2716 + 2.31 0.00077 = 330.273 m
La media poblacional pertenece al intervalo (330.270, 330.273) al 95% de
confianza.

El error de la media aritmtica al 95% de confianza es:

mm m t error
X X
8 . 1 0018 . 0 0007 . 0 31 . 2
2
1 ,
% 95 % 95
= = = =


Cuantas observaciones debern efectuarse para que el error de la media aritmtica
sea menor que 0.0008 m al 95% de confianza?

96 . 1 0008 . 0

= =
c c X c
z m
n
z z


008 . 0
0023 . 0
96 . 1
n
64 . 5
0008 . 0
0023 . 0 96 . 1
n 32 n

iv) Intervalos de confianza para la varianza y la desviacin estndar:

Partimos de la expresin del estimador del error estndar de una observacin:


[ ]
1

=
n
vv
[ ]
2
) 1 ( = n vv
[ ]
2
2
2
2

) 1 (

= = n
vv


El estadstico muestral o estadstico de prueba
2
, distribuye chi-cuadrado con
1 =n grados de libertad, figura 13.



32

figura 13

Un intervalo de confianza del 95% para
2
, es:

975 . 0 ,
2 2
025 . 0 ,
2
< <
975 . 0 ,
2
2
2
025 . 0 ,
2
) 1 (

< <
)
n

975 . 0 ,
2 2
2
025 . 0 ,
2
1
) 1 (
1

>

>
)
n



25 . 0 . 0 ,
2 2
2
975 . 0 ,
2
1
) 1 (
1

<

<
)
n



25 . 0 . 0 ,
2
2
2
975 . 0 ,
2
2
) 1 ( ) 1 (


) )

< <
n n
(21)

La (21) representa un intervalo de confianza del 95% para la varianza poblacional

2
.
En el ejemplo, se tiene:

n = 9 8 1 9 1 = = =n ; 00000529 . 0
2
=
)


De la tabla chi-cuadrado: 5 . 17 18 . 2 975 . 0 , 8
2
025 . 0 , 8
2
= = y
De la (21):


18 . 2
00000529 . 0 8
18 . 2
5 . 17
00000529 . 0 8
2
< <

Intervalo de confianza del 95% para
2
: 0000194 . 0 00000242 . 0
2
< <
Intervalo de confianza del 95% para : 0044 . 0 0016 . 0 < <




33
PARTE 2: PROPAGACION DE LOS ERRORES DE OBSERVACION

Propagacin de la varianza-covarianza:

Sea una funcin no lineal U, de las variables estocsticas x, y, z:

) , , ( z y x f U = (22)

Sean ) ( ; ) ( ; ) ( z E y E x E
z y x
= = = las esperanzas de x, y, z respectivamente;
[ ] [ ] [ ]
2 2 2 2 2 2
) ( ; ) ( ; ) (
z z y y x x
z E y E x E = = = las varianzas de x, y, z
respectivamente y [ ] ) )( (
y x xy
y x E = ; [ ] ) )( (
z x xz
z x E = ,
[ ] ) )( (
z y yz
z y E = las covarianzas de x y, x z, y z, respectivamente.

Desarrollando (22) en serie de Taylor alrededor de (
x
,
y
,
z
):

R z
z
f
y
y
f
x
x
f
f U
z y x z y x
+

+ = ) ( ) ( ) ( ) , , (

donde R contiene los trminos no lineales. Conservando solo la parte lineal del
desarrollo:

) ( ) ( ) ( ) , , (
z y x z y x
z
z
f
y
y
f
x
x
f
f U

+ = (23)

pero ) , , (
z y x U
f U = ;
x x
x = ;
y y
y = ;
z z
z = son los
verdaderos errores de U, x, y, z respectivamente; entonces la (23) se expresa:


z y x U
z
U
y
U
x
U

= (24)

z y z x y x z y x U
z
U
y
U
z
U
x
U
y
U
x
U
z
U
y
U
x
U

= 2 2 2
2
2
2
2
2
2
2

entonces:

+

= ] [ ] [ ] [ ] [
2
2
2
2
2
2
2
z y x U
E
z
U
E
y
U
E
x
U
E (25)
] [ 2 ] [ 2 ] [ 2
z y z x y x
E
z
U
y
U
E
z
U
x
U
E
y
U
x
U

+

Teniendo en cuenta que:

[ ] [ ]
2 2 2
) , , ( (
U z y x U
f U E E = = varianza de U
[ ] [ ]
2 2 2
) (
x x x
x E E = = varianza de x
34
[ ] [ ]
2 2 2
) (
y y y
x E E = = varianza de y
[ ] [ ]
2 2 2
) (
z z z
x E E = = varianza de z
[ ] [ ]
y x y x y x
y x E E = = )( ( covarianza de x y
[ ] [ ]
z x z x z x
z x E E = = )( ( covarianza de x z
[ ] [ ]
yz z y z y
z y E E = = )( ( covarianza de y z

La (25) puede expresarse ahora como:

+

=
2
2
2
2
2
2
2
z y x U
z
U
y
U
x
U
(26)


yz xz xy
z
U
y
U
z
U
x
U
y
U
x
U

+ 2 2 2

Si x, y, z son variables aleatorias (estocsticas) independientes:
xy
=
xz
=
yz
= 0,
entonces:


2
2
2
2
2
2
2
z y x U
z
U
y
U
x
U

= (27)

La (26) es la ley general de la propagacin de la varianza-covarianza, mientras que la
(27) es la ley de propagacin de la varianza, conocida tambin como la ley de Gauss de
propagacin de los errores de observacin.

La (26) puede expresarse matricialmente:

=
z y x
T
z zy zx
yz y yx
xz xy x
U
A A
z U
y U
x U
Z
U
y
U
x
U
, , 2
2
2
2



(28)

donde:

=
Z
U
y
U
x
U
A

2
2
2
, ,
z zy zx
yz y yx
xz xy x
z y x





La matriz

z y x , ,
es la matriz varianza-covarianza de x, y, z.

Si x, y, z son estocasticamente independientes:
xy
=
xz
=
yz
= 0, entonces:

35
=

=
z U
y U
x U
Z
U
y
U
x
U
z
y
x
U
2
2
2
2
0 0
0 0
0 0



2
2
2
2
2
2
z y x
z
U
y
U
x
U

= (29)

se tiene la ley de Gauss de propagacin de la varianza o propagacin de los errores de
observacin, donde X, Y, Z, son las magnitudes observadas.

Ejemplo1: Se han efectuado seis observaciones de una distancia inclinada s y del ngulo
vertical , para determinar la correspondiente distancia reducida al horizonte. Hallar: a)
la distancia reducida al horizonte y su correspondiente error estndar; b) el error del
95% de confianza; c) el mximo error tolerable; d) el error relativo en partes por milln
(ppm).

figura 14

a) distancias inclinadas observadas:

n s
i
(m)
i i
s s m v = ) (
) (
2 2
m v
i

1 125.32 0.002 0.000004
2 125.35 -0.028 0.000784
3 125.29 0.032 0.001024
4 125.30 0.022 0.000484
5 125.33 -0.008 0.000064
6 125.34 -0.018 0.000324


[ ]
m
n
x
s 322 . 125 = = ; [ ] 0 002 . 0 = m v ; [ ]
2
002684 . 0 m vv =

[ ]
m
n
vv
0232 . 0
1
=

= ; m
n
s
0095 . 0 = =

)

Criterio de Chauvenet:
92 . 0
12
11
12
1
1
2
1
1 ) ( = = = =
n
L s L p
S I
z
c
= 1.73
L
I
= 125.322 m 1.73 0.0322 m = 125.282 m
L
S
= 125.322 m + 1.73 0.0322 m = 125.362 m
No se rechazan observaciones de distancias inclinadas.




36

ngulos verticales:

n i
i i
v =

2
i
v
1 251510 10.8 116.64
2
2 5 15.8 249.64
3 20 0.8 0.64
4 15 5.8 33.64
5 30 -9.2 84.64
6 45 -24.2 585.64

[ ] [ ]
2
" 84 . 1070 ; 0 " 2 . 0 ; " 08 ' 15 25 = = = vv v
" 0 . 6 ; " 6 . 14 = =


) )

Criterio de Chauvenet:
92 . 0
12
11
12
1
1
2
1
1 ) ( = = = =
n
L s L p
S I
z
c
= 1.73
L
I
= -4.5; L
S
= 45.1 no se rechazan observaciones de ngulos verticales.

La distancia reducida al horizonte es:

cos ) , ( s s U X = =

El mejor estimador de X se obtiene reemplazando en la expresin anterior, los mejores
estimadores de s y ; es decir y s respectivamente; entonces:

m m s X 343 . 113 ) " 8 . 20 ' 15 25 cos( 32 . 125 cos = = =

Covarianza de s, :
s
:

n m s s v
i s
) ( =
rad
i
v ) (

= m v v
s
) (


1 0.002 0.0000524 0.0000001048
2 -0.028 0.0000766 -0.0000021450
3 0.032 0.00000388 0.0000001242
4 0.022 0.0000281 0.0000006182
5 -0.008 -0.0000446 0.0000003568
6 -0.018 -0.000173 0.0000031140

[ ] m v v
s
000002068 . 0 =



estimacin de la covarianza :
[ ]
m
n
v v
s
s
7
13610 . 4
1 6
000002068 . 0
1


El error estndar de X, X = U(s, ) = s cos:

37

U
s
U
U
s
U
s
s s
X 2
2
2


9044 . 0 ) " 8 . 20 ' 15 25 cos( cos = = =


s
U

m sen m sen s
U
470 . 53 ) " 8 . 20 ' 15 25 ( 322 . 125 = = =

s
=
s
= 4.136 10
-7
m;
s
2
= 0.0005382 m
2
;

2
= 5.0102 10
-9


[ ]
2 4
9 7
7 2
2
145510 . 4
700 . 53
9044 . 0
010210 . 5 13610 . 4
13610 . 4 0005382 . 0
4700 . 53 9044 . 0 m
m m
m m
m
X

=
entonces, el error estndar de X, es:

m m
X
020 . 0 145510 . 4
2 4
= =



y el error estndar del mejor estimador de X ( ) X , es:

m
m
n
X
X
0082 . 0
6
020 . 0
= = =

)


Dado que la covarianza
s
= 4.13610
-7
m es muy pequea ) 0 (

s
, las variables
estocsticas s, , pueden considerarse independientes (o no correlacionadas). En ese
caso, se aplica la ley de Gauss de la propagacin de los errores de observacin:

2
2 2 2 2 2
2
2
2
2
206265
" 6 . 14
) 4700 . 53 ( ) 0232 . 0 ( ) 9044 . 0 (

+ =

= m m
U
s
U
s X


2 4 2
545710 . 4 m
X

= m
X
021 . 0 =

En la prctica, cuando las observaciones son independientes, la propagacin de los
errores de observacin se resuelve directamente con la ley de Gauss. Este es el caso ms
frecuente en los levantamientos topogrficos.

b) El error del 95% de confianza:

error
95%
= m
m
n
z
X
c
016 . 0
6
020 . 0
96 . 1

= =



c) El error mximo tolerable: m m e
X t
052 . 0 020 . 0 6 . 2 6 . 2 = = =
)


d) El error relativo: ppm
m
m
X
X
r
3 . 72 310 . 72 2310 . 7
343 . 113
0082 . 0
6 5
= = = = =


38
Es decir 72.3 mm en un kilmetro (o 7.23 cm en un kilmetro).

Ejemplo 2: Sea la siguiente radiacin de ngulos, donde se han observado las siguientes
direcciones horizontales:

figura 15

x
1
= 45 38 20; x
2
= 61 30 27; x
3
= 83 07 39; x
4
= 110 41 15, todas con el
mismo error estndar: " 5
4 3 2 1
= = = =
x x x x

) ) ) )
. Hallar: a) los ngulos horizontales

1
,
2
,
3
. b) los errores estndar de
1
,
2
,
3
. c) las covarianzas
12
,
13
,
23
. d)
los coeficientes de correlacin r
12
, r
13
, r
23
.

Las observaciones (direcciones horizontales) son independientes; es decir;
x
1
x
2
= x
1
x
3
= x
1
x
4
= x
2
x
3
= x
2
x
4
= x
3
x
4
= 0

a) ngulos.

1
= x
2
x
1
= 15 2707;
2
= x
3
x
2
= 21 3712;
3
= x
4
x
3
= 27 33 36

b) Covarianzas de los ngulos
1
,
2
,
3
.


1
= -x
1
+ x
2


2
= - x
2
+ x
3


3
= - x
3
+ x
4


Expresando en forma matricial: = A X
T
X
A A

=

= =
4
3
2
1
3
2
1
1 1 0 0
0 1 1 0
0 0 1 1
x
x
x
x
X A


T
X
A A

=

1 0 0
1 1 0
0 1 1
0 0 1
0 0 0
0 0 0
0 0 0
0 0 0
1 1 0 0
0 1 1 0
0 0 1 1
2
4
2
3
2
2
2
1
2
3
3 2
2
2
3 1 2 1
2
1
x
x
x
x
sim




39

+
+
+
=

50 25 0
25 50 25
0 25 50
0
0 2
2
4
2
3
2
3
2
3
2
3
2
2
2
2
2
2 2
2
1
2
3
3 2
2
2
3 1 2 1
2
1
x x x
x x x x
x x x
sim





Varianzas desviaciones estndar covarianzas

1
2
= 50
2

1
= 7.07
12
= -25
2

2
2
= 50
2

2
= 7.07
13
= 0

3
2
= 50
2

3
= 7.07
23
= -25
2


c) Coeficientes de correlacin:
j i
j i
j i
r



=

5 . 0
50
25
07 . 7 07 . 7
25
2 1
2 1
2 1
=

= =



) )
)
r

0
07 . 7 07 . 7
0
3 1
3 1
3 1
= = =



) )
)
r

5 . 0
50
25
07 . 7 07 . 7
25
3 2
3 2
3 2
=

= =



) )
)
r

coef. de correlacin correlacin
0 = r nula
30 . 0 0 r dbil
75 . 0 30 . 0 r media
99 . 0 75 . 0 r fuerte
1 = r perfecta

Los ngulos
1
y
2
estn correlacionados (correlacin media). Los ngulos
1
y
3
no
estn correlacionados (correlacin nula). Los ngulos
2
y
3
estn correlacionados
(correlacin media).

Sea
1
=
1
+
2
, hallar el error estndar
1

)
:

[ ]

=
2
1
1
1 1

[ ]
2 1
2
2
2
1 2
2 1 2
2 1
2
1 2
1
2
1
1
1 1





+ + =

=
)

2 2 2 2 2
1
" 50 " 25 2 " 50 " 50 = + =

)
" 07 . 7 " 50
2
1
= =

)


Si consideramos que:
2 3 1
x x = , entonces:

40
[ ]

= + =
3
1
3 1 1
1 1
x
x
x x [ ]

=
1
1
1 1
2
2 1 2
2 1
2
1
2
1
x x x
x x x

)


pero 0
3 1
=
x x
puesto que x
1
y x
3
son variables estocsticas independientes, entonces:

[ ]
2 2 2 2
3
2
1
2
2
2
1
2
1
" 50 " 25 " 25
1
1
0
0
1 1 = + = + =

=
x x
x
x



" 07 . 7 " 50
2
1
= =



Si se calcula
1
en funcin de
1
y
2
suponiendo que son independientes:

2 2 2 2
2
2
1
2
1
" 100 " 50 " 50 = + = + =


)
" 10 " 100
2
1
= =

)


El porcentaje de la diferencia en el clculo del error estndar es:

% 4 . 41 100
" 07 . 7
" 07 . 7 " 10
=



En consecuencia, las covarianzas deben ser consideradas toda vez que sea necesario.

La media ponderada:

Sea {x
1
, x
2
,, x
n
} un conjunto de n observaciones repetidas de una dada magnitud X.
Dicho conjunto es una muestra de tamao n extrada de una poblacin infinitamente
grande. La media muestral X que estima a la media poblacional (verdadero valor de
la magnitud X) es:

[ ]
n
x
n
x
X
n
i
i
=
= =
1
(30)
cuya varianza es:
n
X
2
2

)
)
= y estima a la varianza poblacional
2

. La muestra se
subdivide en m subconjuntos de tamaos n
1
, n
2
,, n
m
, tales que:

=
= + + =
m
j
j m
n n n n n
1
2 1
L
Para los m subconjuntos, se tiene:

1
) 1 (
1
) 1 (
2
) 1 (
1
1
n
x x x
X
n
+ + +
=
L
;
1
2
2
1
n
X

=
)

2
1
2
1
X
n

)
=

2
) 2 (
2
) 2 (
2
) 2 (
1
2
n
x x x
X
n
+ + +
=
L
;
2
2
2
2
n
X

=
)

2
2
2
2
X
n

)
=
..

41
m
m
nm
m m
m
n
x x x
X
) ( ) (
2
) (
1
+ + +
=
L
;
m
m X
n
2
2

=
)

2
2
m X
m
n

)
=

Sumando miembro a miembro las ultimas expresiones:


= =
= =
m
j
m
j
j X
j
n n
1 1
2
2
1

)

De las anteriores:

1
2
1
2
1 1
) 1 (
1
) 1 (
2
) 1 (
1 1
X X n x x x
X
n

)
L = = + + + =


2
2
2
2
2 2
) 2 (
2
) 2 (
2
) 2 (
1 2
X X n x x x
X
n

)
L = = + + + =


.
m
m X
m m
m
nm
m m
m
X X n x x x
2
2
) ( ) (
2
) (
1

)
L = = + + + =



Sumando miembro a miembro:

j
m
J
m
j
j X
j j m
X X n X n

= =
= = = + + +
1 1
2
2
2 1
1

)
L ; es decir:


j
m
j
j X
X X n

=
=
1
2
2
1

)


Despejando X :


2
2
2
2
2
2
1
2
2
2
2
2
2
2
1
2
1
2
1
2
2
1
2
2
1
1
m X X X
m
m X X X
m
j
j X
m
j
j
j X
X X X
X
X

)
L
) )
)
L
) )
)
)
+ + +
+ + +
= =

=
=
(31)

La (31) es la expresin de la media ponderada, donde:
2
2
j X
j
p

)
= es el peso de la media
de cada subconjunto.
Entonces la media ponderada o pesada es:


[ ]
[ ] p
X p
p
X p
p p p
X p X p X p
X
m
j
j
m
j
j j
m
m m
= =
+ + +
+ + +
=

=
=
1
1
2 1
2 2 1 1
L
L
(32)

42
Si cada subconjunto tiene solamente una observacin; es decir, n
1
= n
2
= = n
n
= 1, el
peso de cada observacin es:


2
2
i
i
p

= (33)

donde
i
es el error estndar de la i-sima observacin.
Si todas las observaciones tienen la misma precisin, tienen entonces el mismo error
estndar y, en consecuencia el mismo peso. Podemos asignar peso unidad a todas ellas;
es decir:

p
1
= p
2
=. = p
n
= 1

entonces:


[ ]
n
x
n
x x x
X
n
=
+ + +
=
L
2 1
(34)

Es claro entonces que la media aritmtica (34) es un caso particular de la media
ponderada o pesada (32), cuando todas las observaciones son de igual precisin.
El peso de una observacin es una medida de la calidad de dicha observacin, puesto
que es inversamente proporcional al cuadrado de su error estndar. As, el peso de una
observacin crece conforme disminuye su error estndar.

El error medio cuadrtico o error estndar de la observacin de peso 1:

Sea {x
1
, x
2
,, x
n
} una serie de observaciones de una dada magnitud X, con distintos
pesos p
1
p
2
p
n
. La media ponderada es:


n
n n
p p p
x p x p x p
X
+ + +
+ + +
=
L
L
2 1
2 2 1 1


Consideremos una observacin ficticia con peso 1: p =1.
El sistema de correcciones correspondiente es:

v
1
con peso p
1
v
2
con peso p
2

..
v
n
con peso p
n


Si llamamos v a la correccin de la observacin ficticia con peso 1 (p =1), se tiene:

p
1
v
1
2
= p
2
v
2
2
= = p
n
v
n
2
= v
2
(35)

Puesto que existe una relacin inversa entre pesos y correcciones:


2
2
i
j
j
i
v
v
p
p
=
2 2
j j i i
v p v p =
2 2
j
i
j
i
v
p
p
v = (36)
43

Si j indica la observacin ficticia de peso 1 (p
j
= 1):


i
i
p
v
v
2
2
=
i
i
p
v
v = (37)

La correccin de la observacin de peso 1 es:


i i
p v v = (38)

Para reducir el sistema de correcciones a la unidad de peso (es decir que todas las
observaciones tengan peso 1), se debe multiplicar cada correccin por la raz cuadrada
de su peso. El sistema de las correcciones con peso 1 es entonces:

1
1 1
peso con p v
1
2 2
peso con p v
..
1 peso con p v
n n


El error estndar de una observacin para n observaciones de igual precisin (todas con
peso 1), se obtiene de:


( ) ( ) ( )
1
2
2 2
2
2
1 1 2

+ + +
=
n
p v p v p v
n n
L
)
(39)


[ ]
1 1
2 2
2 2
2
1 1 2

+ + +
=
n
pvv
n
v p v p v p
n n
L
)
(40)

entonces el error estndar de la observacin de peso 1 es:


[ ]
1
=
n
pvv

)
(41)

Error estndar de la media ponderada:

La media ponderada es:
[ ]
n
x
X =


[ ] p
x p x p x p
p p p
x p x p x p
X
n n
n
n n
+ + +
=
+ + +
+ + +
=
L
L
L
2 2 1 1
2 1
2 2 1 1


es decir:

44

[ ] [ ] [ ]
n
n
x
p
p
x
p
p
x
p
p
X + + + = L
2
2
1
1
(42)

Asumiendo que x
1
, x
2
,, x
n
son variables estocsticas independientes (de hecho lo son,
puesto que el resultado de una observacin no influye en resultado de otra), puede
aplicarse a la (42) la ley de Gauss propagacin de los errores de observacin:


[ ] [ ] [ ]
2
2
2
2
2
2
2
2
2
1
2
2
1
2
n
n
X
p
p
p
p
p
p
+ + + = L (43)

Puesto que:
2
2
i
i
p

= , donde
2
es la varianza de la observacin de peso 1, se tiene:
i
i
p
2
2

= . Reemplazando en (43):


[ ] [ ] [ ]
n
n
X
p
p
p
p
p
p
p
p
p
2
2
2
2
2
2
2
2
1
2
2
2
1
2

+ + + = L
[ ] [ ] [ ]
2
2
2
2
2 2
2
1

p
p
p
p
p
p
n
+ + + = L

[ ] [ ] [ ]
[ ]
[ ]
[ ] p
p
p
p
p
p
p
p
p
n
X
2
2
2
2
2 2
2
2
1
2
] [

= = + + + = L

donde el error estndar de la media ponderada es:


[ ] p
X

= (44)

Una estimacin del error estndar de la media ponderada es:


[ ]
[ ] ) 1 (

=
n p
pvv
X
(45)
En sntesis se tiene:

Observaciones de distinta precisin Observaciones de igual precisin
{x
1
, x
2
, x
n
} {x
1
, x
2
, x
n
}
p
1
p
2
p
n
p
1
= p
2
= = p
n
= 1
Media ponderada: Media aritmtica:

[ ]
[ ] p
px
X =
[ ]
n
x
X =
Error estndar de la observacin de peso 1 Error estndar de una observacin

[ ]
1

=
n
pvv

[ ]
1

=
n
vv

Error estndar de la media ponderada Error estndar de la media aritmtica

[ ]
[ ] ) 1 (

=
n p
pvv
X

[ ]
) 1 (

=
n n
vv
X

45
Primera propiedad de la media ponderada Primera propiedad de la media aritmtica
[ ] 0 = pv [ ] 0 = v
Segunda propiedad de la media ponderada Segunda propiedad de la media aritmtica
[ ] mnimo pvv = [ ] mnimo vv =

Las observaciones de igual precisin, son un caso particular de las observaciones de
distinta precisin.

Ejemplo3: Mediante una nivelacin geomtrica, se han medido los desniveles de la
figura siguiente con el objeto de darle cota al punto F desde los puntos A, B, C, D y E
de cotas conocidas.

figura 16

Hallar:
i.- la media ponderada de la cota en F.
ii.- el error estndar de la observacin de peso 1.
iii.- el error estndar de la media ponderada.
iv.- un intervalo de confianza del 95% para la media poblacional.

Datos:

Pto. Cota(m) Desniv.(m) Cota F(m) Dist(km) Peso=1/D(km)
A 895.40 -99.95 795.45 4.7 0.21
B 922.73 -127.23 795.50 4.5 0.22
C 873.25 -77.79 795.46 5.3 0.19
D 850.15 -54.63 795.52 3.5 0.29
E 802.98 -7.54 795.44 2.7 0.37

i), ii), iii):
X
X
) )
, ,

x: cota F(m) peso v
i
(m) p
i
v
i
v
i
2
p
i
v
i
2

795.45 0.21 0.023 0.00483 0.000529 0.000111
795.50 0.22 -0.027 -0.00594 0.000729 0.000160
795.46 0.19 0.013 0.00247 0.000169 0.000032
46
795.52 0.29 -0.046 -0.0133 0.002120 0.000615
795.44 0.37 0.033 0.0122 0.001090 0.000403
473 . 795 = X [ ] 28 . 1 = p [ ] 00023 . 0 =
i i
v p [ ] 00132 . 0
2
=
i i
v p
[ ] 6055 . 0 = px
Media ponderada:
[ ]
[ ]
473 . 0
28 . 1
6055 . 0
= = =
p
px
X m X 473 . 795 =

Error estndar de la observacin de peso 1:
[ ]
m
n
pv
018 . 0
1 5
00132 . 0
1

2
=

=

Error estndar de la media ponderada:
[ ]
m
p
X
016 . 0
28 . 1
018 . 0
= = =

)


iv) Un intervalo de confianza para la media poblacional (95%)

Grados de libertad: = n 1 = 5 1 = 4, t
,1 - /2
= t
4, 0.975
= 2.78
m t X LS
X
517 . 795 0 016 . 0 78 . 2 473 . 795
2
1 ,
= + = + =


m t X LI
X
428 . 795 0 016 . 0 78 . 2 473 . 795
2
1 ,
= = =


Intervalo de confianza del 95% para la media ponderada: (795.428 X
F
795.517) m

nota: justifique que el peso de un desnivel geomtrico es inversamente proporcional a la
distancia expresada en kilmetros. que ocurre en el caso de la nivelacin trgono-
mtrica?

Observaciones duplicadas:

Si una magnitud dada es observada dos veces en las mismas condiciones, la diferencia
de los valores obtenidos servir para la determinacin del error estndar del valor ms
probable de la magnitud medida. En efecto, sean l
1
y l
1
ambas observaciones:

l
1
l
1
= d
1
(46)

y el valor ms probable de la magnitud es:


2
'
1 1
1
l l
l
+
= (47)

Las correcciones aparentes son:


2
1
1 1 1
d
l l v = = y
2
'
1
1 1 2
d
l l v = = (48)

El error estndar de una observacin es:

47

[ ]
2 4
2
4 4 1 2
1
2
1
2
1
2
1
d d d d vv
= = + =

=
)
(49)

y el error estndar de la media aritmtica es:


2 2
2
2
1
1
d
d
l
= = =

)
)
(50)

Es decir que el error estndar de la media aritmtica de una observacin duplicada de
una misma magnitud es igual a la mitad de la diferencia entre ambas observaciones.
Si las observaciones de n magnitudes se realizan en la misma forma (duplicadas) y en
las mismas condiciones, se tendrn valores l
1
, l
2
,, l
n
; l
1
, l
2
,, l
n
y si
1
,
2
,,
n
;
1
,

2
,,
n
son los respectivos errores verdaderos, tendremos:


1 1 1 1
' ' + = + l l
1 1 1 1 1
' ' = = l l d

2 2 2 2
' ' + = + l l
2 2 2 2 2
' ' = = l l d
.. ..

n n n n
l l ' ' + = +
n n n n n
l l d = = ' '

Elevando al cuadrado las expresiones de la segunda columna, sumandos y dividiendo
por n, ambos miembros, resulta:


[ ] [ ] [ ] [ ]
n n n n
dd '
2
' '
+ = (51)

Los dos primeros trminos del segundo miembro de (51) son las varianzas de las
observaciones l
i
y l
i
, i = 1, n, respectivamente, y puesto que ambas series se consideran
igualmente precisas, ambos errores estndar resultan iguales y los denotamos por . El
tercer trmino es nulo puesto que las observaciones son independientes y la covarianza
[ ]
n
'
, resulta igual a cero. Entonces:


[ ]
2 2 2
2 = + =
n
dd
(52)

de donde el error estndar de una observacin simple es:


[ ]
n
dd
2
=
)
(53)

y el error estndar de una observacin duplicada es:


[ ]
n
dd
l
2
1
2
= =

)
)
(54)

48
Si las observaciones son de distinta precisin, se tiene:

error estndar de una observacin simple:
[ ]
n
pdd
2
=
)
(55)

error estndar de una observacin doble:
[ ]
n
pdd
l
2
1
=
)
(56)

Ejemplo 4: Una base subdividida en n tramos iguales, ha sido medida en ida y vuelta
(observaciones duplicadas), obtenindose los siguientes resultados:
l
1
, l
1
, l
2
, l
2
,, l
n
, l
n
, donde l
i
son las observaciones de ida y l
i
son las de la vuelta.
Cual es el error estndar de la base medida?

Las longitudes ms probables y sus errores estndar, son:


2
'
1 1
1
l l
l
+
=
2
1
1
d
l
=
)


2
'
2 2
2
l l
l
+
=
2
2
2
d
l
=
)



2
'
n n
n
l l
l
+
=
2
n l
n
d
=
)


La longitud de la base es:
n
l l l L + + + = L
2 1
, aplicando la ley de Gauss de la
propagacin de los errores de observacin:


[ ]
[ ] dd
dd d d d
n
l l L
2
1
4 4 4 4
2 2
2
2
1
2
n l
2
2
2
1
= = + + + = + + + = L
)
L
) ) )


Considerando ahora que todos los tramos tienen igual peso (puesto que tienen la misma
longitud), hacemos p
i
= 1, i = n, entonces, de
n
l l l L + + + = L
2 1
y
n l 2 1
= = = L
l l



2 2
ln
2
2
2
1
2
l l l L
n
) )
L
) ) )
= + + + = donde
2
l

)
es el cuadrado del error estndar de una
observacin duplicada. El error estndar de la base es, segn la (54):

[ ] ] [
2
1 1
2
1
dd dd
n
n n
l L
= = =
)


y se llega al mismo resultado.

Propagacin de los errores en la nivelacin geomtrica:

En la aplicacin ms simple tenemos dos puntos altimtricos con cotas conocidas y
entre ellos un conjunto de puntos con cotas desconocidas. Mediante la aplicacin
repetida de este mtodo de nivelacin, se obtienen varias estimaciones de las diferencias
de alturas (desniveles) y las observaciones redundantes o excedentes permiten obtener
49
estimaciones de las varianzas y errores estndar. Sabemos que las varianzas a-priori
dependen de las distancias. Si se tienen distancias aproximadamente iguales entre las
miras (atrs y adelante), el desnivel entre los puntos A y B, figura 17, es.

figura 17

h
AB
= h
1
+ h
2
++ h
n
(57)

La figura 17 muestra el i-simo desnivel medido entre los puntos A y B. El plano visual
PV no coincide exactamente con el plano del horizonte PH, luego el error de lectura es
i, figura 18, tanto para la lectura atrs l
ati
como para la lectura adelante l
adi
, si el nivel se
coloca en la mitad de la distancia l
i
.

figura 18

El desnivel h
i
es:

hi = l
ati
- l
adi
(58)

La varianza estimada del i-simo desnivel medido es:


2 2 2 2
2
i i i i
= + = (59)

La desviacin estndar es:


i i
2 = (60)

50
Aplicando la ley de propagacin de los errores de observacin a la (57):


2 2
2
2
1
2

n hAB
+ + + = L (61)

Si ubicamos el nivel equidistante respecto de las miras:


2 2 2
2
2
1
= = = =
n
L

y todas las observaciones tendrn el mismo peso; la (61) se expresa por:


2 2
n
hAB
= (62)

De la figura 17, L = n l
l
L
n= , reemplazando en (62) el error estndar del desnivel
h
AB
, es:

L
l
hAB

= (63)

Tanto L como l se expresan en kilmetros. La cantidad:


) (

km l
km

= (64)

se denomina el error kilomtrico y es una caracterstica de cada nivel. Entonces la
expresin:

) ( km L
km hAB
= (65)

permite estimar el error estndar del desnivel h
AB
, correspondiente a una distancia
horizontal L expresada en kilmetros y medido con un nivel de caracterstica
km
.
La varianza es ) (
2 2
km L
km hAB
= y el peso es inversamente proporcional a la varianza;
es decir:


) (
1
km L
p (66)

El peso es, en definitiva, inversamente proporcional a la distancia expresada en
kilmetros.

Nivelacin geomtrica ida y vuelta:

Supongamos ahora que se hace nivelacin geomtrica ida y vuelta; es decir se tiene una
observacin duplicada por cada desnivel. En la figura 19 se representa un ejemplo con
cinco desniveles dobles; es decir, cinco tramos de nivelacin doble.
51

figura 19

Para n tramos, en general:

Ida: {h
1
, h
2
,, h
n
}
Vuelta: {h
1
, h
2
,, h
n
}
Distancias: {l
1
, l
2
,, l
n
}

Si las distancias de los tramos son iguales: l
1
= l
2
= = l
n
= l, el error estndar de un
desnivel simple es, segn (53):


[ ]
n
dd
2
=

y el error estndar de un desnivel doble es, segn (54):


[ ]
n
dd
l
2
1
2

= =



Supongamos ahora que los tramos de nivelacin l
i
no son iguales, hecho este que est
ms cerca de la realidad: l
1
l
2
l
n
. Adoptamos una distancia de referencia l
0
con
varianza .
2
0

)
Para una distancia l
i
con varianza
2

)
, podemos escribir:

i
l l
2
0
2
0

=
2 0
2
0

i
l
l
=

Reemplazando
2
por (53):


[ ]

= =
l
dd
n
l
n
dd
l
l
i
2 2

0 0
2
0
(67)

Puesto que el peso de un desnivel es
i
i
l
p
1
= , reemplazando en (67):

[ ] pdd
n
l
2

0
2
0
= (68)
52

Si la distancia de referencia es l
0
=1 km, el error estndar de una observacin (desnivel)
simple de un total de n tramos es:

[ ] pdd
n 2
1

0
= (69)

y el error estndar de una observacin (desnivel) doble de un total de n tramos es, para
una distancia de referencia l
0
= 1 km:


[ ]
n
pdd
2
1

0
= (70)

La (70) expresa el error estndar de una observacin (desnivel) doble en
km
mm
para el i-
simo tramo. Para L (km), el error propagado al desnivel total h
AB
, expresado en mm,
es:

) (
0
km L
hAB
= (71)

Ejemplo 5: Se conocen las cotas de dos puntos fijos A y B, H
A
= 40.3900 m y H
B
=
47.4800 m. Se realiza una nivelacin geomtrica ida y vuelta entre ambos puntos fijos
para darle cota a cada una de las 14 estaciones intermedias. Hallar el error estndar de
un desnivel simple, el error estndar de un desnivel doble y el error del desnivel total.

Datos:
tramo dist.(km) ida(m) vuelta(m) media(m) dif.(mm)
A-1 0.27 -3.3070 -3.3086 -3.3078 1.6
1-2 029 2.7865 2.7878 1.7872 -1.3
2-3 0.53 6.2735 6.2741 6.2738 -0.6
3-4 0.30 0.8595 0.8598 0.8596 -0.3
4-5 0.32 07122 0.7115 0.7118 0.7
5-6 0.54 3.9840 9.9847 3.9844 -0.7
6-7 0.40 3.1330 3.1310 3.1320 2.0
7-8 0.39 -2.5040 -2.5008 -2.5024 -3.2
8-9 0.48 2.1531 2.1553 2.1542 -2.2
9-10 0.28 -1.3458 -1.3483 -1.3470 2.5
10-11 0.49 -2.9557 -2.9550 -2.9554 -0.7
11-12 0.39 -2.2370 -2.2342 -2.2356 -2.8
12-13 0.36 -1.8665 -1.8632 -1.8648 -3.3
13-14 0.38 3.0875 3.0874 3.0874 0.1
14-B 0.37 -1.6803 -1.6797 -1.6800 -0.6
= 5.79 = 7.0930 =7.1018 = 7.0974 = -8.8





53
Error estndar para un desnivel simple (l
0
= 1 km)

( ) ( ) ( )
km
mm
km
mm
km
mm
km
mm
l
dd
n
2 2 2 2
2
0
66 . 4
37 . 0
6 . 0
29 . 0
3 . 1
27 . 0
6 . 1
15 . 2
1
2
1
=


+ +

+ =

= L

Error estndar de un desnivel doble (l
0
= 1 km)

km
mm
km
mm
l
dd
n
53 . 1 32 . 9
2
1 1
2
1

2
0
= =

=

Error estndar del desnivel total h
AB
:

mm km
km
mm
km L
hAB
68 . 3 79 . 5 53 . 1 ) (
0
= = =

Error de cierre:
( )
mm m
h h
H H
i i
A B
4 . 7 0074 . 0 0974 . 7 3900 . 40 4800 . 47
2
'
= = =
+
=
Error mximo tolerable: mm mm e
hAB t
6 . 9 68 . 3 6 . 2 6 . 2 = = =
)


El error de cierre en valor absoluto, es menor que la tolerancia o mximo error
tolerable; es decir < e
t
.

Propagacin de errores en la poligonacin:

Sea la poligonal de la figura 20:



figura 20

Se conoce:

(X
0
, Y
0
), (X
1
, Y
1
): coordenadas de los puntos fijos 0 y 1
R
01
: rumbo de la direccin 0-1
54

R01
: error estndar del rumbo 0-1

X1
,
Y1
: errores estndar de las coordenadas del punto 1 en las direcciones de
los ejes coordenados X e Y

i
, s
i
: ngulos y distancias observadas

i
,
si
: errores estndar de las observaciones

Se desea evaluar los errores propagados a las coordenadas del punto k.
Las coordenadas planas de los puntos 2, 3, 4,, k 1, k se obtienen de las siguientes
formulas topogrficas:

) 180 cos( cos
1 01 1 1 12 1 1 2
+ + = + = R s X R s X X
) 180 (
1 01 1 1 12 1 1 2
+ + = + = R sen s Y senR s Y Y

) 180 . 2 cos( ) 180 cos( cos
2 1 01 2 1 01 1 1 23 2 2 3
+ + + + + = + = R s R s X R s X X
) 180 . 2 ( ) 180 (
2 1 01 2 1 01 1 1 23 2 2 3
+ + + + + = + = R sen s R sen s Y R sen s Y Y
.

+ + + + + + + = L ) 180 . 2 cos( ) 180 cos(
2 1 01 2 1 01 1 1
R s R s X X
k
(72)
) 180 ) 1 ( cos(
1 2 1 01 1
+ + + + +

k R s
k k
L

+ + + + + + + = L ) 180 . 2 ( ) 180 (
2 1 01 2 1 01 1 1
R sen s R sen s Y Y
k
(73)
) 180 ) 1 ( (
1 2 1 01 1
+ + + + +

k R sen s
k k
L
entonces:

) , , , , , , , , , (
1 2 1 1 2 1 01 1
=
k k k
s s s R X f X L L (74)
) , , , , , , , , , (
1 2 1 1 2 1 01 1
=
k k k
s s s R X g Y L L (75)

Aplicando la ley de propagacin de los errores de observacin a (74) y (75), y
considerando que las observaciones son independientes:

+

+ +

2
1
2
1
2
2
2
2
2
1
2
1
2
01
2
01
2
1
2
1
2
k
k
k k k
R
k
X
k
Xk
X X X
R
X
X
X

L

(76)
2
1
2
1
2
2
2
2
2
1
2
1

+ +

+
k s
k s
k
s
s
k
s
k
X X
s
X
L


+

+ +

2
1
2
1
2
2
2
2
2
1
2
1
2
01
2
01
2
1
2
1
2
k
k
k k k
R
k
Y
k
Yk
Y Y Y
R
Y
Y
Y

L

(77)
2
1
2
1
2
2
2
2
2
1
2
1

+ +

+
k s
k s
k
s
s
k
s
k
Y Y
s
Y
L

55
Desarrollando las derivadas parciales en la (76)
1
1
=

X
X
k

=

= = =

1
1
1 1 1 23 2 12 1
01
) (
k
i
k i k k k
k
Y Y Y senR s senR s senR s
R
X
L

=

= = =

1
1
1 1 1 23 2 12 1
1
) (
k
i
k i k k k
k
Y Y Y senR s senR s senR s
X
L

=

= = =

1
2
2 1 1 23 2
2
) (
k
i
k i k k k
k
Y Y Y senR s senR s
X
L

= = =

1
1
1 1 1
1
) (
k
k i
k k i k k k
k
k
Y Y Y senR s
X


1
1 2
12
1
cos
s
X X
R
s
X
k

= =


2
2 3
23
2
cos
s
X X
R
s
X
k

= =


.
1
1
1
1
cos

= =

k
k k
k k
k
k
s
X X
R
s
X


Reemplazando en la (76), se tiene la varianza de X
k
:

2
2
1
1
1
1
1
2 2 2
01
2
1
2
1
2
) ( ) (
i s
k
i
k
i i
i i
i i k R k X Xk
s
X X
Y Y Y Y

=
+


+ + + = (78)

Desarrollando las derivadas parciales en (77):

1
1
=

X
Y
k

=

= = + + + =

1
1
1 1 1 23 2 12 1
01
) ( cos cos cos
k
i
k i k k k
k
X X X R s R s R s
R
Y
L

=

= = + + + =

1
1
1 1 1 23 2 12 1
1
) ( cos cos cos
k
i
k i k k k
k
X X X R s R s R s
Y
L

=

= = + + =

1
2
2 1 1 23 2
2
) ( cos cos
k
i
k i k k k
k
X X X R s R s
Y
L


..

= = =

1
1
1 1 1
1
) ( cos
k
k i
k k i k k k
k
k
X X X R s
Y


1
1 2
12
1
s
Y Y
R sen
s
Y
k

= =



56
2
2 3
23
2
s
Y Y
R sen
s
Y
k

= =


.
1
1
1
1
cos

= =

k
k k
k k
k
k
s
Y Y
R
s
Y


Reemplazando en (77), se tiene la varianza de Y
k
:

2
2
1
1
1
1
1
2 2 2
01
2
1
2
1
2
) ( ) (
i s
k
i
k
i i
i i
i i k R k Y Yk
s
Y Y
X X X X

=
+


+ + + = (79)

El error estndar en la posicin del punto k, es:


2 2
Yk Xk k
+ = (80)

La varianza es:


2 2 2
Yk Xk k
+ = (81)

Reemplazando en (81) las (78) y (79)

( ) ( ) [ ] [ ] + + + + + + =

=
2
1
1
2 2 2
01
2
1
2
1
2
1
2
1
2
) ( ) (
i
k
i
i k i k R k k Y X k
X X Y Y X X Y Y


(82)
2
1
1
2
1
2
1
si
k
i i
i i
i
i i
s
X X
s
Y Y

=
+ +


+

En la (82) se ve que:


2
1
2
1
2
1
= +
Y X

(X
k
X
1
)
2
+ (Y
k
Y
1
)
2
=
1,k
2
(X
k
X
i
)
2
+ (Y
k
Y
i
)
2
=
i,k
2
1 cos
1 ,
2
1 ,
2
2
1
2
1
= + =


+ +
+ +
i i i i
i
i i
i
i i
R sen R
s
Y Y
s
X X


donde
i,k
es la distancia entre el vrtice i y el vrtice k de la poligonal, y R
i,i+1
es el
rumbo de la direccin i, i+1.
La (82) puede expresarse entonces:

+ =
2
1
2

k

ik
2

=
+
1
1
2
01
k
i
R

ik
2

=
+
1
1
2 2
k
i
si i


(83)

57
Los valores de
ik
pueden obtenerse en forma grafica de una carta o croquis a escala
adecuada. Los valores de
R01
y
i
deben expresarse en radianes para obtener
k
en
unidades lineales (por ejemplo metros).

Ejemplo 6: Sea la poligonal cerrada de la figura 21:



figura 21

Se exige un error relativo de cierre
r
, definido por
20000
1

r
. Se decide medir las
distancias con un distancimetro que asegura un error lineal
s
10 mm y un teodolito
que garantiza un error angular

3.
Se desea saber si con dichos instrumentos se satisface la condicin de cierre
preestablecida; es decir, cerrar con un error relativo
r
1/20000.

Adoptamos un sistema de coordenadas planas (local) donde las coordenadas del punto 1
y el rumbo del lado 1-2 se consideran libres de errores.
Por tratarse de una poligonal cerrada, el punto 1 se superpone con el punto k = 7,
entonces:

1, 7
= 0;
1
= 0;
R01
= 0

Bajo estas condiciones, la (83) es ahora:

=
=
6
1
2
7
i

i6
2

i
2

=
+
6
1
2
i
si


Tomando grficamente los valores de
ik
y s
i
:


11
= 0 m s
1
= 420 m

12
= 420 m s
2
= 420 m

13
= 730 m s
3
= 640 m

14
= 1120 m s
4
= 460 m

15
= 800 m s
5
= 420 m
58

16
= 400 m s
6
= 420 m
------------------ ----------------

6
1

1i
2
= 2763700 m
2

=
6
1
2780m s
i


6
1

1i
2

i
2
= 0.000585 m
2
;

=
6
1
2
000600 . 0
si
m
2


El error estndar en la posicin del punto k = 7, es:

m m m 034 . 0 000600 . 0 000585 . 0
2 2
7
= + =

El error mximo tolerable es :
7
6 . 2
)
=
t
e , entonces error mximo de cierre aceptable
es:

ppm
m
m
s
i
r
8 . 31 10 1799 . 3
2780
034 . 0 6 . 2 6 . 2
5
6
1
7
. max
= = = =

)


El requerimiento de no superar de la precisin requerida
r
1/20000 = 5 10
-5
= 50 ppm
para el cierre de la poligonal, se satisface ampliamente con el instrumental disponible.

---------------------------------

























59
TEMA 1: TRABAJO PRCTICO 1

Parte I: La distribucin normal o gaussiana de los errores de observacin.

E1: Sea
2 2
) (
x h
e
h
x

=

la funcin de frecuencia o densidad de probabilidad de la


variable aleatoria respecto de la media; es decir = X x , donde X es la variable
estocstica (aleatoria) que representa a las observaciones y es la media poblacional o
verdadero valor de una dada magnitud que ha sido observada repetidamente un nmero
infinitamente grande de veces. Teniendo en cuenta la relacin existente entre el mdulo
de precisin h de Gauss y la desviacin estndar de una observacin, demuestre que la
funcin de frecuencia o densidad de probabilidad de X (las observaciones) es:


2
2
) (
2
1
2
1
) (


=
X
e X

E2: Si z es la variable normalizada (estandarizada o tipificada) correspondiente a X
(observacin); es decir,


=
X
z , demostrar que la esperanza o media de z es igual a
cero y la varianza de z es igual a 1.

E3: Apoyndose en el E2, demuestre que la funcin de frecuencia o densidad de
probabilidad de la variable normalizada z es
2
2
1
2
1
) (
z
e z

=

.

E4: La calificacin media de un examen final fue 72 y la desviacin estndar 9. El 10%
superior de los estudiantes recibirn una calificacin A (excelente). Cul es la
calificacin mnima que debe obtener un estudiante para recibir A?

E5: En un examen la media fue 78 y la desviacin estndar 10.
i) Determinar las calificaciones estandarizadas de dos estudiantes cuyos
puntajes fueron 63 y 92 respectivamente.
ii) Determinar los puntajes de dos estudiantes cuyas calificaciones
estandarizadas fueron -0.6 y 1.2, respectivamente.

E6: Hallar la media y la desviacin estndar de un examen en el cual los puntajes 70 y
88 corresponden a calificaciones estandarizadas -0.6 y 1.4, respectivamente.

E7: Se ha efectuado un gran nmero de observaciones repetidas de una dada magnitud
con media = 145.3 y desviacin estndar = 2.1. Calcular la probabilidad de que una
observacin quede comprendida en el intervalo: [143.2, 147.4].

E8: Si un conjunto de observaciones esta normalmente distribuido qu porcentaje de
ellas diferir de la media por:
i) ms de una desviacin estndar?
ii) menos de tres cuartos de la desviacin estndar?

60
E9: Si es la media y es la desviacin estndar de un conjunto infinitamente grande
de observaciones de una dada magnitud que estn normalmente distribuidas, qu
porcentaje de esas observaciones:
i) estn dentro del recorrido 2?
ii) estn por fuera del recorrido 1.2?
iii) son mayores que - 1.5?

E10: En el E9 hallar la constante a, tal que el porcentaje de los casos:
i) dentro del recorrido a sea 75%.
ii) menores que - a se 22%.

E11: Si las 300 observaciones repetidas de una dada magnitud estn distribuidas
normalmente con media = 1.70m y desviacin estndar = 10cm, Cuntas de esas
observaciones:
i) son mayores que 1.85m?
ii) son menores o iguales que 1.55m?
iii) estn entre 1.59m y 1.81m?

E12: Se ha medido 35 veces una distancia. Hallar un intervalo de confianza para la
media al nivel de significacin = 0.05, si la muestra arroja los siguientes estadsticos
muestrales:
m m X 0087 . 0 525 . 732 = =
)


E13: En el E12 se desea que el error estndar de la media aritmtica sea menor que el
50% del error estndar del distancimetro utilizado en la medicin, que tamao debera
tener la muestra?

E14: Una magnitud X se ha observado 500 veces, resultando la media aritmtica
75 . 128 = X y la desviacin estndar de una observacin 25 . 1 =
)
:
i) cuntas observaciones sern mayores que 130.63?
ii) para que valor de a, sern 25 observaciones menores que
)
a X ?

E15: Durante las pruebas realizadas don un geodmetro, una determinada base ha sido
medida 16 veces. Haciendo uso de la tabla siguiente:

reg. xi(m) reg. xi(m) reg. xi(m) reg. xi(m)
1 6994.911 5 6994.882 9 6994.902 13 6994.896
2 .890 6 .898 10 .901 14 .883
3 .879 7 .885 11 .895 15 .895
4 .895 8 .883 12 .894 16 .902

i) Sanear la muestra aplicando el criterio de Chauvenet.
ii) Hallar la media aritmtica, el error estndar de una observacin y el error
estndar de la media aritmtica para la muestra saneada.
iii) Hallar un intervalo de confianza del 95% para la media poblacional .
iv) Hallar intervalos de confianza del 95% para la varianza poblacional
2
y
para la desviacin estndar poblacional .
v) Hallar el error medio aritmtico, el error probable y el mximo error
tolerable.
61

Ejercicios optativos (*)

E1*: Se obtienen 137 errores de cierre en una determinada triangulacin, segn la tabla
siguiente:
reg intervalo Marca de clase frecuencia
1 -1.25, -0.75 -1.0 9
2 -0.75, -0.25 -0.5 32
3 -0.25, 0.25 0.0 45
4 0.25, 0.75 0.5 30
5 0.75, 1.25 1.0 16
6 1.25, 1.75 1.5 5

Determinar al 95% si los errores de cierre tienen distribucin normal.

E2*: En la tabla siguiente se muestran los resultados de las pruebas realizadas con
determinado distancimetro:

dist(km) error(cm) dist(km) error(cm)
3.0 2.0 5.7 3.0
3.6 5.0 5.8 3.0
4.2 3.0 8.0 4.0
4.6 4.0 10.2 8.0
5.6 6.0

i) Estimar los regresores
0
y
1
.
ii) Hallar la recta de ajuste mnimos cuadrados.
iii) Hallar un intervalo de confianza del 95% para el regresor
1
y someterlo a
una prueba de hiptesis.
iv) Hallar los coeficientes de determinacin y correlacin.
v) Decir si el modelo de regresin lineal simple tiene utilidad.
vi) Estimar el error de la distancia medida, para 5000m.

....


Parte II: Propagacin de los errores de observacin.

E 1: Un ngulo horizontal se obtiene mediante la diferencia de las dos direcciones
horizontales x
1
, x
2
(ver figura). Si ambas direcciones horizontales tienen el mismo error
estndar " 10 =
x

)
Cul es el error estndar del ngulo ?


62
figura

E 2: Con un nivel estacionado entre dos miras colocadas sobre sapos y a igual distancia,
se ha determinado el desnivel h entre sapos. Siendo el error medio de una visual
mm
x
1 =
)
e igual atrs y adelante cual es el error estndar del desnivel h? (ver
figura).

figura

E 3: Sea L la distancia horizontal entre dos puntos fijos de nivelacin de una lnea a
nivelar con visuales de longitud uniforme (ver figura)


figura

Si es el error de un desnivel parcial cual es el error estndar del desnivel entre los
puntos fijos A y B?

E 4: La posicin de un punto A ha sido determinada mediante la medicin de una base
a = 465.24 m y los ngulos = 48 25 10 y = 72 15 25. Siendo el error estndar
de la base m
a
05 . 0 =
)
y el error estndar de los ngulos " 10 = =


) )
con que
error estndar queda determinado el lado b? Hallar el error relativo en ppm.

63
figura

E 5: Dado
2
2
1
cot D
R
k
z g D h

+ = (nivelacin trigonomtrica), determinar el valor del
desnivel trigonomtrico h y su error estndar, siendo:
z = 86 15 42 (distancia cenital); " 3 =
z

)

D = 5000 m (distancia horizontal); m
D
50 . 0 =
)

k = 0.13 (coeficiente de refraccin); 03 . 0 =
k

)

R = 6371 km (radio terrestre medio)

E 6: Dado
2
1
ln ) 1 ( 8002
p
p
t h
m
+ = (nivelacin baromtrica) donde:
2
2 1
t t
t
m
+
= (temperatura media), t
1
= 20C, t
2
= 4C, C
t
5 . 0 =
)

p
1
= 722 mm Hg, p
2
= 680 mm Hg, Hg mm
p
1 . 0 =
)
,
273
1
=
Hallar el valor del desnivel baromtrico h y su error estndar.


figura

E 7: Dado el triangulo plano ABC con los datos siguientes:

figura

a = 405.24 m m 05 . 0 =
= 48 25 10 " 10 =
= 72 15 25 " 10 =

Determinar el rea y su error estndar.

64
E 8: Se mide una distancia inclinada de 500 m entre dos puntos con una diferencia de
nivel de 100 m. Cul es la tolerancia para el error en el desnivel si se desea obtener la
correccin por reduccin al horizonte con un error estndar mm
RH C
1 = .
La correccin por reduccin al horizonte es:
D
h
C
RH
2
2
=

figura

E 9: Una distancia inclinada D y un ngulo vertical deben medirse a los efectos de
calcular un desnivel h. cuales sern las precisiones de D y para obtener h con un
error estndar mm
h
5 = ? Considrese D = 100 m y = 10.

figura

E 10: Durante la medicin de ngulos desde la estacin P, debe establecerse una
estacin excntrica A debido a la falta de intervisibilidad entre los puntos P y A. Debe
calcularse una correccin excntrica a los efectos de reducir la direccin horizontal
PA a la direccin requerida PA. Para calcular , debe conocerse los parmetros: e, D y
(ver figura). Cul debe ser la precisin de dichos parmetros si la tolerancia para es
" 3 3 =

y los valores aproximados de los parmetros son e = 10 m, D = 1000 m y =


45?


figura

E 11: Se desea determinar la distancia Z entre los puntos A y B de la figura y su error
estndar
Z
. Se han medido las distancias X, Y y el ngulo con los siguientes
resultados y errores estndar:

X = 253.52 m m
X
021 . 0 =
Y = 289.31 m m
Y
027 . 0 =
65
= 57 15 20 " 10 =



figura
Determinar Z y su error estndar
Z
. Si se fija el error estndar de Z en
m
Z
01 . 0 con que precisin deber medirse X, Y, ?

E12: Un ngulo ha sido determinado mediante la medicin de las direcciones
horizontales x
1
, x
2
. Teniendo ambas mediciones el mismo peso: p
1
= p
2
= 1Cul es el
peso del ngulo? Si el peso del ngulo es
2
1
=

p Cul es el peso de una direccin


horizontal?

E 13: Cul es el peso de la expresin
i i
p x (p
i
es el peso de x
i
) si xi tiene error
estndar
i
?

E 14: En una campaa geodsica se efectuaron desde los puntos 1, 2, 3, 4 y 5, las
mediciones de las distancias cenitales al punto trigonomtrico 6 a fin de determinar su
cota (ver figura)

figura

Del clculo correspondiente, resultaron los datos presentados en la siguiente tabla:

est. largo visual (m) cota est.(m) desnivel (m) cota 6 (m)
1(MV) 15290.7 1491.47 93.63 1585.10
2(CT) 25334.8 1107.77 477.67 1585.44
3(CPL) 24684.4 1352.20 213.82 1586.32
66
4(CLM) 12971.2 1989.56 -405.16 1584.40
5(C) 18724.0 1750.66 -166.27 1584.39

Hallar la cota estimada del punto 6 y su error estndar. El peso de un desnivel
trigonomtrico es inversamente proporcional al cuadrado de la distancia (largo visual)
expresado en km. Justifquelo.

E 15: Nivelacin geomtrica compuesta ida y vuelta. Dada la siguiente tabla:

tramo li (km) x
i
(m) (ida) x
i
(m)(vuelt.) ) )( ( media m x di (mm)
1-2 0.270 3.372 3.369
2-3 0.310 2.025 2.026
3-4 0.290 4.585 4.588
4-5 0.330 5.118 5.116
5-6 0.250 2.962 2.960

i) Hallar el error estndar de un desnivel simple.
ii) Hallar el error estndar de un desnivel doble.
iii) Hallar el error estndar propagado al desnivel h entre 1 y 6.
iv) Hallar el desnivel h entre 1 y 6 y un intervalo de confianza del 95% para el
desnivel verdadero.

E 16: Desde la estacin O, se han medido las distancias OA = x
1
, OB = x
2
, OC = x
3
, OD
= x
4
, alineadas en la misma direccin (ver figura), con un distancimetro cuya precisin
estndar es: = 5 mm + 5 ppm D (mm).


figura

Si x
1
= 250.273 m, x
2
= 721.851 m, x
3
= 1322.031 m y x
4
= 2021.533 m, determinar los
errores estndar y las distancias y
1
= AB, y
2
= BC, y
3
= CD, sus covarianzas y sus
coeficientes de correlacin. Hallar la distancia CD y su error estndar.

E17: Sea la poligonal de la figura.

67

figura

Se desea estimar el error
p
del vrtice 5.
Las coordenadas de los puntos de apoyo 0 y1, son:

0: X
0
= 699.821 m Y
0
= 57.542 m
1: X
1
= 148.037 m Y
1
= 221.253 m

Los errores estndar de dichas coordenadas son:


X0
=
X1
= 0.007 m
Y0
=
Y1
= 0.008 m

El error estndar del rumbo R
01
, es
R01
= 2
El error estndar de un ngulo se estima en " 5 =

y el error estndar de una distancia


se estima en m
s
005 . 0 = .

E 18: En la poligonal del ejercicio 17, se desea que el punto 5 tenga un error total
cm
p
5 . 2 Cules deben ser los errores angular

y en distancia
s
? Indique el
instrumento apropiado para medir la poligonal.

----------------------------
-------------
-------
---
-













68



















TEMA 2

SISTEMAS DE ECUACIONES LINEALES

INCONSISTENTES
























69
Sistemas de ecuaciones lineales inconsistentes:

El ajuste o compensacin de una red topogrfica requiere de la solucin de un sistema
de ecuaciones lineales inconsistente. Comenzaremos con el estudio de tales sistemas,
partiendo de un ejemplo sencillo:

Ejemplo 1: Sea el siguiente sistema de ecuaciones lineales:

3 2
2 1
= + x x
3 3 5
2 1
= + x x
4 6 4
2 1
= + x x

expresado en forma matricial es:

4
3
3
6 4
3 5
2 1
2
1
x
x


es decir:

A X = L (1)

Otra forma de expresar (1), es la siguiente:

4
3
3
6
3
2
4
5
1
2 1
x x

donde:

=
4
5
1
) 1 (
A y

=
6
3
2
) 2 (
A

son los columna de la matriz A y [ ]
T
L 4 3 3 = es el vector de los trminos
independientes. Si la solucin existe, existirn entonces los nmeros reales (escalares)
2 1
x y x tales que:

L A x A x = +
) 2 (
2
) 1 (
1


es decir, L puede expresarse como una combinacin lineal de los vectores columna A
(1)

y A
(2)
con los escalares
2 1
x y x . Trataremos de hallar la solucin del sistema lineal
mediante la eliminacin gaussiana:


70
paso 1 paso 2 paso 3

1 2 3 1 2 3 1 2 3
5 3 3 0 -7 -12 0 -7 -12
4 6 4 0 -2 -8 0 0
7
32


El sistema triangular equivalente es:

3 2
2 1
= + x x
12 7
2
= x

7
32
0 =

La ltima ecuacin es un absurdo, luego el sistema dado no admite solucin. Se dice
pues, que el sistema lineal es inconsistente. Las matrices A y A* (la matriz ampliada)
son, respectivamente:

=
6 4
3 5
2 1
A y

=
4 6 4
3 3 5
3 2 1
* A

El paso 3 de la eliminacin gaussiana indica claramente que el rango de la matriz A es
igual a 2, (A) =2, mientras que el rango de A* es igual a 3, (A*) =3. Es bien sabido
que si (A) (A*), el sistema lineal no admite solucin; es decir, resulta
inconsistente. No existen pues los escalares
2 1
, x y x , tal que L pueda expresarse como
una combinacin lineal de los vectores columnas de la matriz A, A
(1)
y A
(2)
.
Interpretaremos este resultado grficamente:



figura 1
71
Los vectores columna A
(1)
y A
(2)
generan un plano denominado el espacio columna de la
matriz A y denotado por EC
A
, que contiene todas las posibles combinaciones lineales de
los vectores columna; es decir:


A
EC A x A x +
) 2 (
2
) 1 (
1


Puesto que L no es una combinacin lineal de A
(1)
y A
(2)
( L A x A x +
) 2 (
2
) 1 (
1
) no
pertenece al espacio columna de A (
A
EC L ). Debemos entonces sumar a L un vector
V, vector correccin, tal que L + V pertenezca a E
CA
; es decir:

V L A x A x + = +
) 2 (
2
) 1 (
1


o bien:

V L X A + = (2)

donde: [ ]
T
x x X
2 1
= es el vector solucin. Ahora el sistema lineal (2) resulta
consistente (admite solucin) puesto que
A
EC V L + . De entre todos los posibles
vectores correccin V, escogeremos aquel cuyo mdulo sea mnimo; es decir aquel que
minimice la distancia entre el extremo del vector L y el espacio columna de la matriz A.
En otras palabras el vector V seleccionado debe ser perpendicular al espacio columna
E
CA
:

[ ]
T
v v v V
3 2 1
=

=
= = + + = =
3
1
2 2
3
2
2
2
1
2
i
i
T
mnimo v v v v V V V

El vector correccin cumple con el principio de los mnimos cuadrados de Gauss.
Hallaremos ahora la ecuacin del espacio columna de la matriz A, es decir, la ecuacin
del plano E
CA
:
Sean [ ]
T
x x x
3 2 1
todos los vectores de R
3
pertenecientes a EC
A
; es decir, todas las
combinaciones lineales de A
(1)
y A
(2)
:

=
3
2
1
3
2
1
6
3
2
4
5
1
:
x
x
x
que tal
x
x
x
EC
A


Entonces:


1
2 x = +

2
3 5 x = +

3
6 4 x = +

De la primera ecuacin despejamos : 2
1
= x y reemplazamos en las segunda y
tercera ecuaciones:

72

2 1
3 ) 2 ( 5 x x = +

3 1
6 ) 2 ( 4 x x = +

Operando, se llega a:


1 2
10 2 14 x x + =

1 3
28 7 14 x x + =

Restando miembro a miembro la primera de la segunda:

0 7 2 18
3 2 1
= + x x x

y se tiene la ecuacin del espacio columna de la matriz A, EC
A
. Tambin se llega al
mismo resultado mediante la eliminacin gaussiana (intntelo!). Obsrvese que L = [3,
3, 4]
T
no pertenece al EC
A
puesto que sus componentes no satisfacen la ecuacin del
plano EC
A
, entonces el sistema lineal resulta inconsistente. Sin embargo, hallaremos
una solucin [ ]
T
x x X
2 1
= que resulta de la aplicacin del principio de los mnimos
cuadrados. Tal solucin se denomina la solucin mnimos cuadrados.
Resulta ahora que
A
EC X A y
A
EC V , entonces el producto escalar de los vectores
AX y V debe ser igual a cero; es decir:

( ) 0 = V X A
T
(3)

Reemplazando L AX V = en la (3):

( ) ( ) 0 = L AX X A
T

( ) 0 = L AX A X
T T

0 = L A X AX A X
T T T T

( ) 0 = L A AX A X
T T T


Dado que X es distinto del vector nulo, X 0, debe cumplirse:

= L A AX A
T T
0

L A X A A
T T
= (4)

La (4) es el sistema de las ecuaciones normales, donde:

A A N
T
= (5)

es la matriz normal y es una matriz simtrica ( demustrelo!).

La solucin mnimos cuadrados se obtiene de la (4) por inversin matricial:

L A N X
T 1
= (6)
73

Para el ejemplo 1, se tiene:

=
6 4
3 5
2 1
A ;

=
4
3
3
L

= =
49 41
41 42
A A N
T
;

=
39
34
L A
T


( ) 377 det = N ; ( )


=
42 41
41 49
N adj ;

42 41
41 49
377
1
1
N

La solucin mnimos cuadrados es:


= =

=

647215 . 0
177719 . 0
39
34
42 41
41 49
377
1
1
2
1
L A N
x
x
X
T


El vector correccin V, es:

= =

=
59417 . 0
16976 . 0
52780 . 1
4
3
3
647215 . 0
177719 . 0
6 4
3 5
2 1
3
2
1
L AX
v
v
v
V

El mdulo o norma del vector correccin V, es:

64804 . 1 716293 . 2 = = = V V V
T


La proyeccin ortogonal del vector de trminos independientes L sobre EC
A
es:

=
594166 . 4
830240 . 2
472149 . 1
647215 . 0
.
177719 . 0
6 4
3 5
2 1
AX

Justificaremos este resultado por otro camino:
La ecuacin vectorial de la recta que pasa por el extremo del vector V y es ortogonal a
EC
A
, es:

n L X + = (7)

donde n = [18, 2, -7]
T
es un vector normal a EC
A
que surge de su propia ecuacin.
La ecuacin vectorial de EC
A
es:

0 = X n
T
(8)

Llamemos X
p
al vector proyeccin de L sobre EC
A
, entonces:

74
n L X
p
+ = (9)
0 =
p
T
X n (10)

Reemplazando (9) en (10):

( ) 0 = + n L n
T

0 = + n n L n
T T

L n n n
T T
=


n n
L n
T
T
= (11)

Entonces:


[ ]
[ ]
377
32
7
2
18
7 2 18
4
3
3
7 2 18
=

=

El vector proyeccin es:

= + =
594164 . 4
830239 . 2
472150 . 1
7
2
18
377
32
4
3
3
n L X
p


El vector proyeccin es AX X
p
= si y solamente si la solucin [ ]
T
x x X
2 1
= es la
solucin mnimos cuadrados.
Vale la pena destacar que si la matriz A es de rango completo; es decir, el rango de A es
igual al nmero de columnas de A, la solucin mnimos cuadrados es nica. En el
siguiente ejemplo discutiremos que sucede cuando la matriz A es deficiente de rango,
vale decir: (A) < m, donde m es el nmero de columnas de la matriz A.

Ejemplo 2: Sea el siguiente sistema de ecuaciones lineales:

4 2
2 1
= + x x
5 4 2
2 1
= + x x
8 6 3
2 1
= + x x

expresado matricialmente es:

75
L AX =

8
5
4
6 3
4 2
2 1
2
1
x
x


Resolviendo por eliminacin gaussiana:


6 3
4 2
2 1

8
5
4

4 0 0
3 0 0
4 2 1


El sistema triangular equivalente es:

4 2
2 1
= + x x
3 0 =
4 0 =
El sistema es inconsistente. El rango de la matriz A es (A) = 1; el nmero de
columnas es m = 2. El defecto de rango de la matriz A es r = m - (A) = 2 1 = 1.
El sistema de las ecuaciones normales es:

L A X A A
T T
= ) (

76
38
56 28
28 14
2
1
x
x


El determinante de N es det (N) = N = A
T
A = 0 (A
T
A) = (N) = 1. Entonces
los rangos de A y N son iguales, la matriz normal tambin es defectuosa de rango y
(A) = (N) = 1. Existen entonces infinitas soluciones mnimos cuadrados. La
expresin de la solucin general se obtiene por eliminacin gaussiana.

14 28 38 14 28 38
28 56 76 0 0 0

El sistema triangular equivalente es:

38 28 14
2 1
= + x x

es decir:
7
19
2
2 1
= + x x
2 1
2
7
19
x x =

La solucin general mnimos cuadrados del sistema de ecuaciones es:

1
2
0
7
19
2
7
19
2
2
2
2
1
x
x
x
x
x
; + < <
2
x

donde
T

0
7
19
es una solucin particular del sistema de las ecuaciones normales que
denotamos por F, mientras que [ ]
T
1 2 es una solucin del sistema homogneo
76
asociado que denotamos por N
1
; entonces podemos expresar la solucin general
mnimos cuadrados por:


1
N F X + = ; + < < (12)

Hallaremos ahora dos soluciones, por ejemplo, para = 0 y = 1.

Solucin particular para = 0:

0
7143 . 2
0
7
19
2
1
x
x


El vector correccin V es:

= =
1429 . 0
4286 . 0
2857 . 1
8
5
4
0
7143 . 2
6 3
4 2
2 1
L AX V 3674 . 7 ; 8571 . 1 = = X X V V
T T


Solucin particular para = 1:

1
7143 . 0
1
2
0
7
19
2
1
x
x


El vector correccin V es:

= =
1429 . 0
4286 . 0
2857 . 1
8
5
4
1
7143 . 0
6 36
4 2
2 1
L AX V 5102 . 1 ; 8571 . 1 = = X X V V
T T


Decimos que la solucin particular para = 1 es mejor que la solucin particular para
= 0, puesto que su norma 289 . 1 5102 . 1 = = X X
T
es menor que la norma de la
solucin particular para = 0, 7143 . 2 3674 . 7 = = X X
T
.
Cul es entonces la mejor solucin o solucin ptima?
Si todas las soluciones son mnimos cuadrados (V
T
V = mnimo), la solucin ptima ser
aquella que tenga norma mnima; es decir: mnimo X X
T
= .

Interpretacin geomtrica: La solucin general mnimos cuadrados, (12), del sistema
lineal dado, es la ecuacin vectorial de la recta que pasa por el punto F = (19/7, 0) y est
dirigida por el vector N
1
= (-2, 1) segn ilustra la figura 2:

77


figura 2

En la figura 2, denotamos por X a todos los vectores solucin mnimos cuadrados,
mientras que X

representa la solucin ptima (mnima norma). Obsrvese que la


solucin ptima es aquella que resulta perpendicular al vector N
1
; es decir que debe
cumplir con la condicin de ortogonalidad:

0

1
= X N
T
(13)

De la (12), la solucin ptima es
1

N F X + = . Para hallar el valor de que satisfaga a


(13), multiplicamos escalarmente ambos miembros de la anterior por N
1
T
:


1 1 1 1

N N F N X N
T T T
+ =

de la (13):

0
1 1 1
= + N N F N
T T


entonces :


1 1
1
N N
F N
T
T
=

Reemplazando los valores numricos:


[ ]
[ ]
0857 . 1
35
38
5
7
38
1
2
1 2
0
7
19
1 2
1 1
1
= =

= =
N N
F N
T
T


Entonces la solucin ptima es:

78

= + =
0857 . 1
5429 . 0
1
2
0857 . 1
0
7
19

1
N F X ; 2155 . 1 4774 . 1

= = X X
T


con morma mnima.

En general, cuando se tiene un sistema lineal (A
T
A) X = A
T
L y la deficiencia de rango
de la matriz A
T
A es r = m - (A
T
A), existen N
1
, N
2
,,N
r
vectores linealmente
independientes tales que la solucin del sistema homogneo asociado (A
T
A) X = 0 est
dada por.


r r SLHA
N N N X + + + = L
2 2 1 1
(14)

As, la solucin general mnimos cuadrado del sistema AX = L es ahora:


r r SLHA
N N N F X F X + + + + = + = L
2 2 1 1

(15)

donde F es una solucin particular de AX = L. La solucin ptima X

es ortogonal al
espacio generado por los vectores N
j
, j = 1, r; es decir, 0

= X N
T
j
. Entonces:

F N N N N N N N
T
r r
T T T
1 1 2 2 1 1 1 1
= + + + L
F N N N N N N N
T
r r
T T T
2 2 2 2 2 1 1 2
= + + + L (16)

F N N N N N N N
T
r r r
T
r
T
r
T
r
= + + + L
2 2 1 1


La (16) es un sistema de r ecuaciones lineales independientes con r incgnitas
j
j =1, r
cuya solucin (
1
,
2
,,
r
), reemplazada en (15), permite hallar la solucin ptima.

Ejemplo3: Hallar la solucin ptima del siguiente sistema lineal inconsistente:

6 2 2
4 2 1
= + + x x x
1
4 1
= + x x
3
4 2 1
= + + x x x
2
2
= x
1
4 1
= + x x
5 2
4 2 1
= + + x x x

Expresado matricialmente es:

79

5
1
2
3
1
6
1 0 2 1
1 0 0 1
0 0 1 0
1 0 1 1
1 0 0 1
2 0 1 2
4
3
2
1
x
x
x
x


Aplicamos la eliminacin gaussiana a la matriz A ampliada con el vector de
trminos independientes L:



5 1 0 2 1
1 1 0 0 1
2 0 0 1 0
3 1 0 1 1
1 1 0 0 1
6 2 0 1 2




2 0 0 2 / 3 0
2 0 0 2 / 1 0
2 0 0 1 0
0 0 0 2 / 1 0
2 0 0 2 / 1 0
6 2 0 1 2





4 0 0 3 0
4 0 0 1 0
2 0 0 1 0
0 0 0 1 0
4 0 0 1 0
6 2 0 1 2


8 0 0 0 0
0 0 0 0 0
2 0 0 0 0
4 0 0 0 0
4 0 0 1 0
6 2 0 1 2


Las filas 3 a 6 de la matriz ampliada son dependientes, pero cualquiera de ellas es
independiente de las 1 y 2, entonces el rango de la matriz ampliada es igual a 3.
Puesto que el rango de A es 2, el vector L = [6, 1, 3, -2, 1, 5]
T
no pertenece al
espacio columna de A; luego, el sistema lineal dado es inconsistente.
El sistema de las ecuaciones normales (A
T
A) X = A
T
L es:

22
0
21
22
8 0 5 8
0 0 0 0
5 0 7 5
8 0 5 8
4
3
2
1
x
x
x
x


donde (A) = (A
T
A) = 2 existen infinitas soluciones mnimos cuadrados..
Aplicamos la eliminacin gaussiana para hallar la solucin mnimos cuadrados
general:

80

22
0
21
22
8 0 5 8
0 0 0 0
5 0 7 5
8 0 5 8

0
0
25 . 7
22
0
0 0
0 0 875 . 3
8 0 5 8


El sistema triangular equivalente es:

8x
1
+ 5x
2
+ 8x
4
= 22
3.875x
2
= 7.25

Adoptamos x
3
, x
4
como variables libres:


x
1
= 1.58064 x
4

x
2
= 1.87097

La solucin general mnimos cuadrados es:

1
0
0
1
0
1
0
0
0
0
87097 . 1
58064 . 1
87097 . 1
58064 . 1
4 3
4
3
4
4
3
2
1
x x
x
x
x
x
x
x
x


donde F = [1.58064, 1.87097, 0,0]
T
, N
1
= [0,0,1,0]
T
, N
2
= [-1,0,0,1]
T


Claramente se ve que (A
T
A) N
1
= 0, (A
T
A) N
2
= 0 y (A
T
A) F= A
T
L
La solucin ptima X

se determina estableciendo las siguientes condiciones:



i)
2 2 1 1

N N F X + + = ; ii) 0

1
= X N
T
; iii) 0

2
= X N
T


De las anteriores, se tiene:

(N
1
T
N
1
)
1
+ (N
1
T
N
2
)
2
= - N
1
T
F
(N
2
T
N
1
)
1
+ (N
2
T
N
2
)
2
= - N
2
T
F

N
1
T
N
1
= 1; N
1
T
N
2
= N
2
T
N
1
= 0; N
2
T
N
2
= 2; N
1
T
F = 0; N
2
T
F = -1.58064

El sistema de ecuaciones es:


1
+ 0
2
= 0
0
1
+ 2
2
= 1.58064

La solucin es:
1
= 0 y
2
= 0.79032.

De la condicin i), la solucin ptima del sistema lineal inconsistente, es:

81

=
79032 . 0
00000 . 0
87097 . 1
79032 . 0
1
0
0
1
79032 . 0
0
0
87097 . 1
58064 . 1
F
X mnimo X X X
T
= = = 1795 . 2

El vector correccin V = A X-L es:

=
3226 . 0
5806 . 0
1290 . 0
4516 . 0
5806 . 0
9678 . 0
V mnimo V V V
T
= = = 3912 . 1

Cualquier par de escalares distintos de
1
= 0 y
2
= 0.79032 reemplazados en la
condicin i), dar una solucin mnimos cuadrados cuya longitud ser mayor que la
longitud de X

.
Este mtodo, si bien tiene valor terico, no resulta prctico para resolver sistemas
lineales inconsistentes de tamao considerable. La solucin ptima se halla
mediante la aplicacin de una regla prctica que se ver en la seccin siguiente.

Inversin de matrices simtricas:

Segn la expresin (6) de la seccin anterior, la solucin mnimos cuadrados
requiere de la inversin de la matriz normal que es simtrica. Los valores y vectores
propios de la matriz normal nos permiten hallar tanto la matriz inversa regular de
Cayley cuando la matriz N es de rango completo, como la matriz pseudoinversa de
Moore-Penrose cuando N es defectuosa de rango.
Dada, en general, una matriz A de orden mxm, se definen como un valor propio de
A al escalar y su vector propio correspondiente al vector X, si se cumple:

X AX = (17)

Para hallar los valores propios y los correspondientes vectores propios de la matriz
A, se procede como sigue:

0 = X AX , donde 0 es el vector nulo de orden mx1. Sea I la matriz identidad de
orden mxm: 0 = IX AX , entonces:

( ) 0 = X I A (18)

La (18) es un sistema lineal homogneo de m ecuaciones con m incgnitas. Para que
tenga soluciones distintas de la solucin trivial ( ) 0 X , deber cumplirse que el
determinante de la matriz I A sea igual a cero; es decir:

( ) 0 det = I A (19)
82

La (19) se denomina la ecuacin caracterstica de la matriz A y es un polinomio de
grado m en . A cada valor propio
j
j = 1, m le corresponde un vector propio X
j
j =
1, m que se obtiene como solucin del sistema homogneo (18) luego de reemplazar
el correspondiente j, que es una solucin de (19).
Sea como ejemplo la matriz de orden 2x2, siguiente:

=
22 21
12 11
a a
a a
A

La ecuacin caracterstica es:

( ) = =

=
21 12 22 11
22 21
12 11
) ( ) ( det a a a a
a a
a a
I A


0 ) ( ) (
21 12 22 11 22 11
2
= + + = a a a a a a

donde el coeficiente de es la traza de A y el trmino independiente es el
determinante de A; luego, la ecuacin caracterstica de la matriz A
2x2
, es:

( ) 0 ) det( ) ( det
2
= + = A A tr I A (20)

cuya solucin son los valores propios
1
,
2
de la matriz A.
Los vectores propios correspondientes se obtienen resolviendo los siguientes sistemas
lineales homogneos.

2 , 1 ;
0
0
2
1
22 21
12 11
=

j
x
x
a a
a a
j
j



Nos interesa especialmente el caso de las matrices simtricas, puesto que la matriz
normal lo es.
Si, en general, A
mxm
es simtrica y X
i
, X
j
son vectores propios correspondientes a
valores propios distintos
i
y
j
(
i

j
), entoncesX
i
y X
j
son ortogonales (X
i
X
j
).
Puesto que
i
es un valor propio de la matriz A y X
i
es un vector propio
correspondiente:


i i i
X AX = (21)

transponiendo:
T
i i
T T
i
X A X =

multiplicando escalarmente por X
j
:


j
T
i i j
T T
i
X X X A X = (22)

Puesto que j es un valor propio de la matriz A y X
j
es un vector propio
correspondiente:

83

j j j
X AX =
Puesto que A es simtrica:
j j j
T
X X A =

Reemplazando en (22):
j
T
i i j j
T
i
X X X X =
j
T
i i j
T
i j
X X X X =

0 =
j
T
i i j
T
i j
X X X X 0 ) ( =
j
T
i i j
X X

Puesto que
i

j
, resulta que X
i
T
X
j
= 0, entonces X
i
y X
j
son ortogonales, dado que X
i

0 y X
j
0. Los vectores propios de una matriz simtrica son ortogonales: X
i
X
j
i =
1, m; j =1, m i j.

Otra propiedad importante es la siguiente:Los valores propios de una matriz simtrica
son nmeros reales mayores o iguales a cero
Si A es una matriz simtrica de orden mxm, podemos expresarla como A = B
T
B donde
B es de orden nxm (n m). Sea
j
un valor propio de la matriz A y X
j
un vector propio
correspondiente, entonces:


j j j
X AX =

j j j
T
X X B B = (23)

Premultiplicando ambos miembros de (23) por X
j
T
:

j
T
j j j
T T
j
X X X B B X =
j
T
j j j
T
j
X X X B BX = ) (
2 2
j j j
X BX =

entonces: 0
2
2
=
j
j
j
X
BX
j = 1, m

A las dos importantes propiedades ya vistas:

i) Todos los valores propios de una matriz simtrica son nmeros reales y positivos (
j

0; j = 1, m)
ii) Los vectores propios son mutuamente ortogonales (X
i
X
j
, i = 1, m; j =1, m i j).

podemos agregar otras no menos importantes:

iii) Puede haber soluciones mltiples en la ecuacin caracterstica.
iv) El nmero de valores propios iguales a cero, es igual al defecto de rango de
la matriz A.
v) El determinante de la matriz A esta dada por:
m j
A L
2 1
= =

Si llamamos r al nmero de valores propios nulos:

r = m - (A) = defecto de rango de la matriz A

donde r es tambin el defecto de rango de la matriz A.
84

Ejemplo4: Sea

=
1 2
2 4
A , hallar sus valores propios y los vectores propios
correspondientes.

La ecuacin caracterstica: 0 0 5 ) ( det
2
= + = A 0 ) 5 ( =
1
= 5,
2
= 0
valores propios:
1
= 5,
2
= 0

vectores propios correspondientes al valor propio
1
= 5:

0 ) (
1
= X I A

0
0
1 2
2 4
2
1
1
1
x
x

0
0
4 2
2 1
2
1
x
x


Resolviendo el sistema homogneo por eliminacin gaussiana:
el sistema triangular equivalente

0 4 2
0 2 1

0 0 0
0 2 1
0 2
2 1
= + x x
variable libre o independiente:
2
x
2 1
2 x x =

La solucin general del sistema homogneo es:

1
2 2
2
2
2
2
1
x
x
x
x
x
; + < <
2
x

haciendo, por ejemplo, 1
2
= x , se tiene un vector propio

=
1
2
1
X correspondiente al
valor propio
1
= 5.

vectores propios correspondientes al valor propio
2
= 0:


0 ) (
2
= X I A

0
0
1 2
2 4
2
1
2
2
x
x

0
0
1 2
2 4
2
1
x
x


Resolviendo el sistema homogneo por eliminacin gaussiana:

el sistema triangular equivalente

0 1 2
0 2 4

0 0 0
0 2 4
0 2 4
2 1
= + x x
variable libre o independiente:
2
x
2 1
2
1
x x =
La solucin general del sistema homogneo es:

85

1
2
1
2
1
2
2
2
2
1
x
x
x
x
x
+ < <
2
x

haciendo, por ejemplo, 2
2
= x , se tiene un vector propio

=
2
1
2
X , correspondiente al
valor propio
2
= 0.

Los vectores propios X
1
y X
2
son ortogonales: [ ] 0
2
1
1 2
2 1
=

= X X
T

2 1
X X


figura 3

El determinante de la matriz A es igual a cero: 0 0 . 5 = = A .
El rango de la matriz A es: (A) = 1, el orden de A es mxm = 2x2, el defecto de rango
de A es: r = m - (A) = 2-1 = 1 = nmero de valores propios nulos.

Los vectores propios normalizados de una matriz simtrica A
mxm
, son:


j
j
j
X
X
e =
(
; 1 =
j
e
(
m j , 1 = (24)

con ellos se construye la matriz E
mxm
:

[ ]
m
e e e E
(
L
( (
, , ,
2 1
=

donde

=
j i si
j i si
e e
j i
1
0
( (


luego E es una matriz ortogonal; es decir:

E
-1
= E
T
(25)

86
Consideremos nuevamente una matriz simtrica Amxm y la respectiva matriz E, cuyas
columnas son los vectores propios normalizados de la matriz simtrica A. El producto
de ambas matrices se expresa por:

[ ] [ ] [ ]

= = =
m
m m m m
e e e e e e e A e A e A E A


L
O M M
L
L
(
L
( ( (
L
( ( (
L
( (
0 0
0
0 0
0 0
, , , , , , , , ,
2
1
2 1 2 2 1 1 2 1


es decir:

D E E A = (26)

D es una matriz diagonal, donde los valores propios de A (
j,
j = 1, m) son sus
elementos diagonales.
Premultiplicando la (26) por E
T
y considerando que E es una matriz ortogonal (E
-1
=
E
T
):

E
T
A E = E
T
E D = E
-1
E D = D

E
T
AE = D (27)

Premultiplicando ambos miembros de la (27) por E:

EE
T
AE = ED
AE = ED
AEE
T
= EDE
T


A = EDE
T
(28)

Invirtiendo ambos miembros de la (28):

A
-1
= (EDE
T
)
-1
A
-1
= (E
T
)
-1
D
-1
E
-1

A
-1
= (E
-1
)
-1
D
-1
E
-1


A
-1
= E D
-1
E
T
(29)

Si A es no singular (|A| 0), todos sus valores propios son distintos de cero y existe la
matriz inversa D
-1
. Entonces, la (29) es la inversa regular de Cayley:


T
E D E
A
A adj
A
1 1
) (

= = (30)

Si A es una matriz simtrica singular su determinante es igual a cero ((|A| = 0), resulta
entonces defectuosa de rango, (A) < m, y presenta tantos valores propios nulos como
su defecto de rango (r = m - (A)). No existe pues D
-1
, la inversa de la matriz D. Si
removemos los valores propios nulos de la diagonal de D y al mismo tiempo
87
removemos los vectores propios normalizados correspondientes de la matriz E, la
expresin.

A
+
= E D
-1
E
T
(31)

es la matriz pseudoinversa de Moore-Penrose que permite resolver el sistema de las
ecuaciones normales cuando la matriz normal N = A
T
A es deficiente de rango y por
tanto, singular. De las infinitas soluciones mnimos-cuadrados, la pseudoinversa M-P
permite obtener la solucin ptima; es decir, la solucin de norma mnima. Entonces la
solucin ptima:

L A N L A A A X
T T T + +
= = ) (
)
(32)

cumple con la doble condicin:

i) mnimo V V
T
=
ii) mnimo X X
T
=

A modo de aplicacin, resolveremos el ejemplo (3), utilizando la pseudoinversa M-
P(Moore-Penrose):

La matriz normal N:

= =
8 0 5 8
0 0 0 0
5 0 7 5
8 0 5 8
A A N
T


La ecuacin caracterstica es:

0 62 23
8 0 5 8
0 0 0
5 0 7 5
8 0 5 8
) ( det
2 3 4
= + =

I N

cuyas races son: 0 ; 11847 . 3 ; 88153 . 19
4 3 2 1
= = = =

El defecto de rango de la matriz normal N es igual al nmero de valores propios nulos;
es decir, dos y (N) = 4-2 = 2.

Vector propio correspondiente al valor propio
1
= 19.88153:

Aplicamos eliminacin gaussiana para resolver el sistema lineal homogneo
correspondiente:

88

L L L L L L
L L L L L L
L L L L L L
0 0 0 0 0
0 0 88153 . 19 0 0
0 36657 . 8 0 77742 . 10 0
0 8 0 5 88153 . 11
0 49502 . 6 0 366657 . 8 0
0 0 88153 . 19 0 0
0 36657 . 8 0 77742 . 10 0
0 8 0 5 88153 . 11
0 88153 . 11 0 58 8
0 0 88153 . 19 00 0
0 5 0 88153 . 12 5
0 8 0 5 88153 . 11


El sistema triangular equivalente es:

-11.88153 x
1
+ 5 x
2
+ 8 x
4
= 0
-10.77742 x
2
+ 8.36657 x
4
= 0
-10.88153x
3
= 0

Adoptamos x
4
como la variable libre:

x
3
= 0; x
2
= 0.77630 x
4
; x
1
= 1.00003 x
4
.

La solucin general del sistema homogneo es:

=
1
0
77630 . 0
00003 . 1
0
77630 . 0
00003 . 1
4
4
4
4
1
x
x
x
x
X

El vector propio normalizado es: [ ]
T
e 61985 . 0 0 48119 . 0 61987 . 0
1
=
(

Para el valor propio
2
= 3.11847, se tiene:
[ ]
T
e 340260 . 0 0 876610 . 0 342026 . 0
2
=
(


Las matrices E y D, luego de remover los valores propios nulos y sus correspondientes
vectores propios normalizados, son:

89
[ ]

= =
340260 . 0 61985 . 0
0 0
876610 . 0 48119 . 0
342026 . 0 61987 . 0
2 1
e e E
( (

=
11847 . 3 0
0 88153 . 19
0
0
2
1

D

La matriz inversa D
-1
es:

032067 . 0 0
0 05030 . 0
1
0
0
1
2
1
1

D

El vector de los trminos independientes en el sistema de las ecuaciones normales es:

=
22
0
21
22
L A
T


La pseudoinversa M-P (Moore-Penrose), es:



= =
+
05645 . 0 0 08065 . 0 05645 . 0
0 0 0 0
08064 . 0 0 25806 . 0 08064 . 0
05645 . 0 0 08064 . 0 05645 . 0
1 T
E D E N

La solucin ptima es:

= = =
+ +
79036 . 0
0
87066 . 1
79036 . 0
) (

L A N L A A A X
T T T


Las diferencias con el resultado anterior se deben a errores de redondeo, solamente.

--------------------------------------








90
TRABAJO PRCTICO 2

SISTEMAS DE ECUACIONES LINEALES INCONSISTENTES

E1: Resolver los siguientes sistemas de ecuaciones lineales inconsistentes:

i) 3 2
2 1
= + x x
3 3 5
2 1
= + x x
4 6 4
2 1
= + x x

ii)

8
5
4
6 3
4 2
2 1
2
1
x
x


iii) 3
2 1
= + x x
5 2 2
2 1
= + x x
2
2 1
= + x x
usando la pseudoinvrsa M-P.

E2: Resolver los siguientes sistemas de ecuaciones lineales inconsistentes:

i)

4
6
3
5
4
6
1 0 0
0 2 1
1 0 0
0 2 1
1 0 0
0 2 1
3
2
1
x
x
x
ii)

1
4
4
5
2
0
3
2
3
1 0 0
3 2 1
2 2 1
1 2 1
0 2 1
0 0 0
0 2 1
0 2 1
1 2 1
3
2
1
x
x
x


usar la aplicacin MATLAB: SSI_RM.

E3: Plantee y resuelva sus propios sistemas lineales inconsistentes.



--------------------------------------






91

















TEMA 3


ANALISIS DE REDES TOPOGRAFICAS




















92

Las Redes Topogrficas:

Las redes topogrficas que vamos a estudiar en este curso son.

i).- Redes Planas
ii).- Redes Altimtricas

Redes Planas: La superficie de referencia de las redes planas es el plano topogrfico.
Consideraremos como observables a los ngulos horizontales y a las distancias
reducidas a la superficie de referencia. Los parmetros a ajustar son las coordenadas
planas (X
j
, Y
j
) j = 1, p donde p es el nmero de vrtices o puntos de la red. Existe una
relacin explcita entre observables y parmetros. Para los ngulos horizontales, figura
1, se tiene el ngulo definido por los puntos I, K, J donde K es el punto estacin desde
el cual se bisectan los puntos I y J para obtener el ngulo por diferencia de las
direcciones horizontales KJ y KI observadas. Las coordenadas planas de los puntos I, K,
J son (X
I
, Y
I
), (X
K
, Y
K
), (X
J
, Y
J
) respectivamente. El ngulo horizontal es:



figura 1


K I
K I
K J
K J
X X
Y Y
arctg
X X
Y Y
arctg

= (1)

o bien en forma sinttica:

) , , , , , (
K K J J I I
Y X Y X Y X f

= (2)

donde el observable , es una funcin explcita de los parmetros o coordenadas planas.
Para las distancias reducidas, figura 2, se tiene la distancia D definida por los puntos I,
J.

93

figura 2

La distancia D es entonces:


2 2
) ( ) (
I J I J
Y Y X X D + = (3)

o bien en forma sinttica:

) , , , (
J J I I D
Y X Y X f D = (4)

donde el observable D es una funcin explcita de los parmetros o coordenadas planas
X, Y. Si l
i
(ngulo o distancia) es la i-sima observacin ajustada, se tendr entonces:

) , , , , , , , , (
2 2 1 1 p p j j i i
Y X Y X Y X Y X f l L L = (5)

o bien:

) , , , , , , (
) , , , , , , (
) , , , , , , (
) , , , , , , (
1 1
1 1
1 1 2
1 1 1
2
1
p p j j n
p p j j i
p p j j
p p j j
n
i
Y X Y X Y X f
Y X Y X Y X f
Y X Y X Y X f
Y X Y X Y X f
l
l
l
l
L L
L
L L
L
L L
L L
M
M
(6)

La (6) representa el sistema de las ecuaciones de observacin. La i-sima ecuacin del
sistema es:


i p p j j i
l Y X Y X Y X f = ) , , , , , , (
1 1
L L (7)

donde X
j
, Y
j
(j = 1, p) son las coordenadas planas (o parmetros) ajustadas, mientras
que l
i
(i = 1, n) es la i-sima observacin ajustada. Tanto parmetros como observables
son las incgnitas del problema. Para resolverlo partiremos de la siguiente
consideracin:

94
X
j
0
,Y
j
0
son coordenadas planas aproximadas tales que, las coordenadas ajustadas
(compensadas) se expresan por:


j j j
dX X X + =
0


j j j
dY Y Y + =
0
p j , 1 = (8)

Llamamos v
i
, correccin (o residuo) de la i-sima observacin li y l
bi
al valor obtenido
de la observacin l
i
, entonces la observacin ajustada o compensada es:


i bi i
v l l + = n i , 1 = (9)

Reemplazando (8) y (9) en (7), se obtiene la siguiente expresin (10):

i i b p p p p j j j j i
v l dY Y dX X dY Y dX X dY Y dX X f + = + + + + + + ) , , , , , , (
0 0 0 0
1
0
1 1
0
1
L L
n i , 1 =
Segn (1) y (3), las
i
f en la (7) no son funciones lineales. Un desarrollo en serie de
Taylor alrededor de los valores aproximados p j Y X
j j
, 1 ,
0 0
= , y despreciando trminos
de mayor orden y grado, nos permite obtener una expresin linealizada para (7). As,
desarrollando en serie de Taylor:

n i v l dY
Y
f
dX
X
f
Y X f
i bi j
j
i
j
j
i
j j i
, 1 ) , , , (
0 0
0 0
= + = +

+ + L L L L (11)

donde:
0 0 0
) , , , (
i j j i
l Y X f = L L es un valor aproximado de la observacin (ngulo o
distancia) que se calcula reemplazando las coordenadas aproximadas
0 0
,
j j
Y X en (1) o
(3) segn corresponda. El subndice
0
en las derivadas parciales de la (11) indica que
una vez obtenidas dichas derivadas, debemos transformarlas en coeficientes numricos
mediante las coordenadas aproximadas
0 0
,
j j
Y X . La (11) adquiere entonces la
siguiente forma:

p j n i v l l dY
Y
f
dX
X
f
i i bi j
j
i
j
j
i
, 1 , 1
0
= = + = +

+ L L (12)

donde se ha obviado el subndice
0
en las derivadas parciales para simplificar la
notacin. Haciendo variar i desde 1 hasta n, la (12) representa un sistema de ecuaciones
lineales; es decir, el sistema de las ecuaciones de observacin linealizado, donde las
derivadas parciales, transformadas en coeficientes numricos, las observaciones l
bi
y los
valores aproximados l
i
0
de las observaciones son conocidos, mientras que dx
j
, dy
j
y v
i

son las incgnitas del problema. La ecuacin (12) se denomina el modelo funcional. La
representacin matricial del modelo funcional es:

95

M
M
M
M
M
M
M
M
M
M
L L L L
L L L L
L L
L L L L
L L L L
i i bi
j
j
j
i
j
i
v l l
dY
dX
Y
f
X
f
0
(13)

que puede ser escrita en forma sinttica:

V L AX + = (14)

donde n i l l L
i bi i
, 1
0
= = . La matriz A, denominada la matriz de diseo, es tal que
sus elementos son las derivadas parciales de las funciones explicitas
i
f respecto de las
coordenadas o parmetros X
j
, Y
j
, evaluadas en las coordenadas aproximadas X
j
0
, Y
j
0
. El
vector de las incgnitas X, est formado por las correcciones diferenciales dX
j
, dY
j
a las
coordenadas aproximadas. El vector V contiene las correcciones o residuos v
i
. La matriz
A es de orden nxm donde m = 2p siendo en general, n > m. El vector L contiene a las
observaciones l
bi
y estas a su vez, estn afectadas de los inevitables errores de
observacin (errores accidentales), en consecuencia, el vector L no pertenece al espacio
columna de la matriz A, EC
A
, generado por las columnas de A, resultando as
inconsistente el sistema lineal AX = L. Es necesario pues, sumar el vector correccin V
al vector L, de manera que V sea perpendicular al espacio columna de la matriz A,
minimizando su mdulo.
Llamemos L
b
al vector de las observaciones:

=
bn
bi
b
b
b
l
l
l
l
L
M
M
2
1
(15)
y sean
i
los errores estndar de las observaciones. La matriz varianza covarianza del
vector L
b
es:

=
2
2
2
2
1 12
2
1
n sim
n
n
b
L



M O
L
L
(16)

La (16) es el modelo estocstico. En la mayora de los casos las covarianzas
ij
son
nulas, en consecuencia la (16) es una matriz diagonal donde los elementos de la
diagonal principal son las varianzas de las observaciones. La inversa de la (16) es la
matriz de los pesos de las observaciones; es decir:

96

= =

n
n
b
p
p
p
P L
O
L
M O M M
L
L
2
1
2
2
2
2
1
1
1
0 0
0
1
0
0 0
1

(17)

Para resolver el sistema de las ecuaciones de observacin linealizado (14) (el modelo
funcional), es necesario recurrir al principio de los mnimos cuadrados. Puesto que las
observaciones son de distinta precisin, dicho principio se expresa por:

=
=
n
i
i i
mnimo v p
1
2
(18)

Vectorialmente es:

[ ]

=
= =

=
n
i
i i
n n
n
T
mnimo v p
v
v
v
p
p
p
v v v PV V
1
2 2
1
2
1
2 1
, , ,
M O
L (19)

Despejando V de la (14): V = AX L y reemplazando en (19):

(AX L)
T
P (AX L) = mnimo
(X
T
A
T
L
T
) (PAX PL) = mnimo

F(X) =X
T
A
T
PAX X
T
A
T
PL L
T
PAX + L
T
PL = mnimo (20)

La condicin de mnimo es F(X) = 0, entonces:

A
T
PAX + X
T
A
T
PA A
T
PL L
T
PA = 0
A
T
PAX + (A
T
PAX)
T
A
T
PL (A
T
PL)
T
= 0
2 A
T
PAX 2 A
T
PL = 0
A
T
PAX A
T
PL = 0

A
T
PAX = A
T
PL (21)

La (21) es el sistema de las ecuaciones normales cuando las observaciones son de
distinta precisin (caso general). La solucin mnimos cuadrados es:

X = (A
T
PA)
-1
A
T
PL (22)

La matriz normal es:

N = A
T
PA (23)

97
entonces la (22) se expresa:

X = N
-1
A
T
PL (24)

donde:

N
-1
= E D
-1
E
T
(25)

Es necesario entonces, calcular los valores propios de la matriz normal N y sus
correspondientes vectores propios normalizados, para hallar su inversa.

Ecuaciones de observacin para ngulos:

Derivando parcialmente respecto de X
I
en la (1):

( )
2
2
2 2 2 2
) (
) (
) ( ) (
1
1
1
K I
K I
K I
K I K I K I
K I
K I
K I
I
X X
Y Y
X X
Y Y X X X X
Y Y
X X
Y Y
X

+
=

+
=



2
KI
KI
I
D
Y
X

. En forma anloga se tiene:


2
KI
KI
I
D
X
Y

;
2
KJ
KJ
J
D
Y
X

;

2
KJ
KJ
J
D
X
Y

2 2
KJ
KJ
KI
KI
K
D
Y
D
Y
X

2 2
KJ
KJ
KI
KI
K
D
X
D
X
Y



Sustituyendo las derivadas parciales en la (12), se tienen las ecuaciones de observacin
para ngulos:

=

K
KJ
KJ
KI
KI
K
KJ
KJ
KI
KI
J
KJ
KJ
J
KJ
KJ
I
KI
KI
I
KI
KI
dY
D
X
D
X
dX
D
Y
D
Y
dY
D
X
dX
D
Y
dY
D
X
dX
D
Y
2 2 2 2 2 2 2 2
"

v
b
+ = (26)

Si tanto los ngulos observados como los aproximados se expresan en segundos de arco
() y tambin los residuos o correcciones, el primer miembro de la (26) deber
multiplicarse por
rad
"
206265 = para satisfacer la homogeneidad dimensional.

Ecuaciones de observacin para distancias:

Derivando parcialmente respecto de X
I
en la (3):


IJ
IJ
I J I J
I J
I
D
X
Y Y X X
X X
X
D
=
+

=

2 2
) ( ) ( 2
) ( 2


98
Anlogamente:
IJ
IJ
I
D
Y
Y
D
=

;
IJ
IJ
J
D
X
X
D
=

;
IJ
IJ
J
D
Y
Y
D
=



Sustituyendo las derivadas parciales en la (12), se tienen las ecuaciones de observacin
para distancias:


D b J
IJ
IJ
J
IJ
IJ
I
IJ
IJ
I
IJ
IJ
v D D dY
D
Y
dX
D
X
dY
D
Y
dX
D
X
+ =

(27)

Esta ecuacin tiene homogeneidad dimensional, puesto que ambos miembros estn
expresados en unidades de longitud.

Redes planas libres y vinculadas:

La principal caracterstica de una red vinculada o ligada es que entre los datos iniciales
(observaciones) se incluye el sistema de referencia en el cual se pretende ajustar la red.
La inclusin del sistema de referencia implica el conocimiento de las coordenadas de al
menos dos puntos de la red, los que definirn la orientacin y el factor de escala.
Considerando fijos al menos dos puntos de la red, estamos introduciendo cuatro
constreimientos: orientacin, escala y posicin respecto del origen. Una vez fijados
dos puntos de la red, esta se dice mnimamente constreida y con esto se logra que la
matriz de diseo A sea de rango completo; es decir, (A) = m, siendo m el nmero de
parmetros (coordenadas planas) a ajustar. Si se fijan ms de dos puntos se tiene una red
sobreconstreida. Puesto que la matriz de diseo A es de rango completo, tambin lo es
la matriz normal N, luego la solucin mnimos cuadrados dada por la (24) es nica,
dado que N es una matriz no singular que admite inversa regular (Cayley) y sta es,
como se sabe, nica.
El clculo de compensacin de la red vinculada con solucin determinista, requiere de
la aceptacin como exactos de ciertos datos a priori como son las coordenadas de los
puntos fijos o bien la orientacin y la escala. Sin embargo estos valores que se han
considerado fijos, estn afectados de errores inevitables, de tal forma que dichos errores
sern introducidos en el ajuste o compensacin e influirn en los resultados finales.
La consideracin de no disponer de datos de partida fijos (las coordenadas de al menos
dos puntos), hace que la red no este sujeta a sistema de referencia alguno predefinido,
por tanto, la solucin de la red libre, geomtricamente indeterminista, presentar
infinitas soluciones. Esta nueva situacin en el ajuste o compensacin de la red, hace
que el sistema de las ecuaciones normales (21) en este nuevo planteamiento, presente
una indeterminacin ya que la matriz normal N resulta singular, det (N) = 0. La
deficiencia de rango de N se debe a la falta de constreimientos de la red. Debemos
hallar pues la solucin mnimos cuadrados mnima norma; es decir la solucin ptima
dada por la pseudoinversa de Moore-Penrose; es decir: X = N
+
A
T
PL, tal como se
estudi en el tema 2 anterior (sistemas de ecuaciones lineales inconsistentes).

Ecuaciones de observacin para coordenadas:

En general, las redes de densificacin se vinculan a vrtices de otras redes preexistentes
consideradas de mayor precisin. En ese caso las coordenadas de los puntos fijos no
estn libres de error, en consecuencia podemos considerarlas como nuevas
99
observaciones y plantear las ecuaciones de observacin para coordenadas en el j-simo
vrtice, de la siguiente manera:


Xj jb j j j
v X dX X X + = + =

Yj jb j j j
v Y dY Y Y + = + =

o bien:


Xj j jb j
v X X dX + =


Yj j jb j
v Y Y dY + =

En forma matricial:

Yj
Xj
j jb
j jb
j
j
v
v
Y Y
X X
dY
dX

1 0
0 1
(28)

Hemos incluido las ecuaciones de observacin para coordenadas junto a las ecuaciones
de observacin para ngulos y distancias. Las ecuaciones de observacin para
coordenadas son linealmente independientes entre si y linealmente independientes de las
restantes. Incluyendo ecuaciones de observacin para coordenadas, se supera el defecto
de rango de la matriz de diseo A.
Cuando consideramos dos o ms puntos fijos, las correcciones diferenciales a sus
coordenadas son cero. Estamos introduciendo entonces los constreimientos necesarios
para superar el defecto de rango de la matriz A y no es necesario considerar ecuaciones
de observacin para coordenadas. Cuando introducimos las ecuaciones de observacin
para coordenadas, como observaciones de gran peso, estamos en presencia de una red
vinculada o ligada, tal como si se tratara de puntos fijos cuasi sin error.

Ejemplo1: Ajustar la red plana de la figura:




figura 3

100
Datos:

Coordenadas puntos fijos Coordenadas aproximadas

punto X(m) Y(m) punto X(m) Y(m)
1 700.00 300.00 5 800.00 1200.00
2 300.00 700.00
3 500.00 1500.00
4 1000.00 2000.00

Observaciones:
ngulo error distancia error

1
= 90 00 10 10 s
1
= 707.00 m 0.053 m

2
= 89 59 55 10 s
2
= 424.15 m 0.041 m

Ecuaciones de observacin para ngulos:


1 1 1 5
2
1
25
5
2
1
25
"

v dY
s
X
dX
s
Y
b
+ =



2 2 2 5
2
2
35
5
2
2
35
"

v dY
s
X
dX
s
Y
b
+ =



Ecuaciones de observacin para distancias:


1 1 1 5
1
25
5
1
25

s b
v s s dY
s
Y
dX
s
X
+ =



2 2 2 5
2
53
5
2
53

s b
v s s dY
s
Y
dX
s
X
+ =



Observables calculados con las coordenadas aproximadas:

" 00 ' 00 90

2 1
2 1
2 5
2 5
1
=

=
X X
Y Y
arctg
X X
Y Y
arctg

" 00 ' 00 90

3 5
3 5
3 4
3 4
2
=

=
X X
Y Y
arctg
X X
Y Y
arctg


m Y Y X X s 11 . 707 ) ( ) (
2
2 5
2
2 5 1
= + =
m Y Y X X s 27 . 424 ) ( ) (
2
3 5
2
3 5 2
= + =

Las ecuaciones de observacin para ngulos y distancias:


1 5 5
" 10 26 . 206 26 . 206

v dY dX + = +
101

2 5 5
" 5 76 . 343 76 . 343

v dY dX + =

1 5 5
11 . 0 707 . 0 707 . 0
s
v dY dX + = +

2 5 5
12 . 0 707 . 0 707 . 0
s
v dY dX + =

Los pesos de las observaciones: La matriz de los pesos:

01 . 0
10
1
2
1
= =

p
01 . 0
10
1
2
1
= =

=
595 0 0 0
0 356 0 0
0 0 01 . 0 0
0 0 0 01 . 0
P
356
) 053 . 0 (
1
2
1
= =
s
p
595
) 041 . 0 (
1
2
2
= =
s
p

La matriz de diseo A: El vector L: L = L
b
L

=
707 . 0 707 . 0
707 . 0 707 . 0
76 . 343 76 . 343
26 . 206 26 . 206
A

=
12 . 0
11 . 0
5
10
L


La matriz normal: N = A
T
PA La matriz normal inversa: N
-1

=
5 . 2082 8 . 636
8 . 636 5 . 2082
N

0005297 . 0 0001620 . 0
0001620 . 0 0005297 . 0
1
N

Los trminos independientes:

=
6077 . 60
6039 . 81
PL A
T






La solucin mnimos-cuadrados: X = (A
T
PA)
-1
A
T
PL


=
0453 . 0
0530 . 0
6077 . 60
6039 . 81
0005297 . 0 0001620 . 0
0001620 . 0 0005297 . 0
X

Coordenadas ajustadas del punto 5:

102
m m m dX X X 947 . 799 0530 . 0 00 . 800
5 5 5
= = + =
m m m dY Y Y 045 . 1200 0453 . 0 00 . 1200
5 5 5
= + = + =

Correcciones a las observaciones: V = AX L

=
m
m
V
050 . 0
104 . 0
" 65 . 7
" 29 . 10
12 . 0
11 . 0
5
10
0453 . 0
053 . 0
707 . 0 707 . 0
707 . 0 707 . 0
76 . 343 76 . 343
26 . 206 26 . 206


La varianza a posteriori:

n = 4, m = 2, r = 0 = n m + r = 4 - 2 + 0 = 2, V
T
PV = 7.0499

5249 . 3
2
0499 . 7

2
0
= = =

PV V
T


Redes Altimtricas: Sean dos puntos I, J del terreno cuyas elevaciones respecto de un
plano de referencia son Z
I
, Z
J
respectivamente, figura 4.




figura 4

El desnivel h entre ambos puntos es funcin de las cotas (elevaciones) respectivas:

) , (
J I
Z Z f h = (29)

El observable h es una funcin lineal de los parmetros Z
I
, Z
J
:


I J
Z Z h = (30)

103
Sean Z
I
, Z
J
las cotas aproximadas y d
ZI
, d
ZJ
sus respectivas correcciones diferenciales.
Los parmetros o cotas ajustadas son:


I I I
dZ Z Z + =

J J J
dZ Z Z + = (31)

El desnivel observado es h
b
, el desnivel ajustado es h y la correccin (residuo) es v
h
,
entonces:


h b
v h h + = (32)

Reemplazando en (30):

) (
I I J J h b
dZ Z dZ Z v h + + = +

La ecuacin de observacin altimtrica es:


h I J b J I
v Z Z h dZ dZ + = + ) (

Haciendo
I J
Z Z h = , se tiene:


h b J I
v h h dZ dZ + = + (33)

Si se trata una red altimtrica formada por ms de una figura cerrada, el conjunto de las
ecuaciones lineales (33), una por cada desnivel observado, es el modelo funcional para
este tipo de redes.

Ejemplo2: Ejecutar el ajuste libre de la red altimtrica de la figura, donde la flecha
indica el punto de mayor cota en el desnivel correspondiente:



figura 5

nivelacin geomtrica: error estndar de un desnivel: ) (
10
km L
km
mm
h
=
Datos:

104
punto Z(m) I-J h
b
(m) L(km) peso
1 100 1-3 40.01 0.3 33333
2 120 1-2 19.97 0.4 25000
3 140 2-3 20.02 0.5 20000

Los pesos:
2 2
1000
) ( 10
1
1000

=
km
km L mm
p
h
h



La matriz de los pesos:

=
20000
25000
33333
P

Las ecuaciones de observacin:

desnivel 1-3 -dZ
1
+ dZ
3
= 40.01 (140 100) + v
1
.
desnivel 1-2 -dZ
1
+ dZ
2
= 19.97 (120 100) + v
2

desnivel 2-3 -dZ
2
+ dZ
3
= 20.02 (140 120) + v
3


desnivel 1-3 -dZ
1
+ dZ
3
= 0.01+ v
1
.
desnivel 1-2 -dZ
1
+ dZ
2
= -0.03 + v
2

desnivel 2-3 -dZ
2
+ dZ
3
= 0.02+ v
3


El modelo funcional:
AX = L+ V

3
2
1
3
2
1
02 . 0
03 . 0
01 . 0
1 1 0
0 1 1
1 0 1
v
v
v
dZ
dZ
dZ


El rango de la matriz de diseo A es: (A) = 2, el defecto de rango es r = m - (A) = 1
Toda red altimtrica libre tiene solo un grado de libertad; basta fijar la cota de un punto
para que la red sea vinculada.

La matriz normal:




= =
53333 20000 33333
20000 45000 25000
33333 25000 58333
PA A N
T


Los trminos independientes:

=
33 . 733
00 . 1150
67 . 416
PL A
T


El sistema de las ecuaciones normales: A
T
PA X = A
T
PL


105




33 . 733
00 . 1150
67 . 416
53333 20000 33333
20000 45000 25000
33333 25000 58333
3
2
1
dZ
dZ
dZ


Valores propios y vectores propios normalizados de la matriz normal N:

1
= 6666.7,
2
= 8999.9,
3
= 0

=
5345 . 0
8018 . 0
2673 . 0
1
e
(
;

=
6172 . 0
1543 . 0
7715 . 0
2
e
(
;

=
5774 . 0
5774 . 0
5774 . 0
3
e
(


Las matrices D y E:

=
0
9 . 8999
7 . 6666
D ;




=
5774 . 0 6172 . 0 5345 . 0
5774 . 0 1543 . 0 8018 . 0
5774 . 0 7715 . 0 2673 . 0
E

Eliminando el valor propio nulo y su correspondiente vector propio normalizado:

=
9 . 8999
7 . 6666
D ;

=
6172 . 0 5345 . 0
1543 . 0 8018 . 0
7715 . 0 2673 . 0
E

La pseudoinversa de Moore-Penrose:




= =
+
8519 . 0 5370 . 0 3148 . 0
5370 . 0 9907 . 0 4537 . 0
3148 . 0 4537 . 0 7685 . 0
10
5 1 T
E D E N

La solucin optima: X = N
+
A
T
PL = ED
-1
E
T
A
T
PL




=

0111 . 0
0172 . 0
0061 . 0
33 . 733
00 . 1150
67 . 416
8519 . 0 5370 . 0 3148 . 0
5370 . 0 9907 . 0 4537 . 0
3148 . 0 4537 . 0 7685 . 0
10
5
X

Las cotas ajustadas:

m m m dZ Z Z 0061 . 100 0061 . 0 100
1 1 1
= + = + =
m m m dZ Z Z 9828 . 119 0172 . 0 120
2 2 2
= = + =
m m m dZ Z Z 0111 . 140 0111 . 0 140
3 3 3
= + = + =

El vector de las correcciones: V = AX L
106

=
0083 . 0
0067 . 0
0050 . 0
02 . 0
03 . 0
01 . 0
0111 . 0
0172 . 0
0061 . 0
1 1 0
0 1 1
1 0 1
V

Desniveles ajustados:

m m m v h h
b
0050 . 40 0050 . 0 01 . 40
1 1 1
= = + =
m m m v h h
b
9767 . 19 0067 . 0 97 . 19
2 2 2
= + = + =
m m m v h h
b
0283 . 20 0083 . 0 02 . 20
3 3 3
= + = + =


Verificacin del cierre: h
1
h
2
h
3
= 0

m m m m h h h 0 0283 . 20 9767 . 19 0050 . 40
3 2 1
= =

La varianza a posteriori:

PV V
T
=
2
0


= n m + r = 3 3 + 1 = 1, 3333 . 3 = PV V
T
, 3333 . 3
2
0
=


Ajuste altimtrico vinculado: Si en una red altimtrica de p puntos fijamos la cota de
uno de ellos, la red queda constreida respecto del desplazamiento vertical. Desaparece
pues el defecto de rango de las matrices A y N, siendo estas ahora de rango completo y,
en consecuencia, existe la inversa regular N
-1
. Si fijamos ms de un punto, la red se dice
sobreconstreida. Las cotas de los puntos fijos se consideran como observaciones
nuevas a las que asignamos pesos elevados. Si I es el punto altimtrico fijo, se tiene:


ZI b I I
v Z Z + = (34)

La cota ajustada Z
I
se expresa por:


I I I
dZ Z Z + = (35)

donde Z
I
es un valor aproximado de la cota fija; sustituyendo (35) en (34):


ZI Ib I I
v Z dZ Z + = +


ZI I Ib I
v Z Z dZ + = (36)

La (36) es la ecuacin de observacin para cotas, donde Z
Ib
es el valor de la cota fija
que consideramos como una observacin de gran peso.

107
Ejemplo3: Ejecutar el ajuste vinculado de la red altimtrica del ejemplo 2. El punto fijo
es el 1, cuya cota es Z
b1
= 100.05 m con un error estndar m
Z
001 . 0
1
= . Una cota
aproximada para 1 es Z
1
= 100.00 m.

La ecuacin de observacin para la cota del punto fijo 1:


1 1 1 1
00 . 100 05 . 100
Z Z b
v v Z dZ + = + =

1 1
05 . 0
Z
v dZ + =

La matriz de diseo A y el vector L = L
b
L, son respectivamente:

=
0 0 1
1 1 0
0 1 1
1 0 1
A ;

=
05 . 0
02 . 0
03 . 0
001 . 0
L (A) = 3; m = 3 r = m - (A) = 3 3 = 0
A es ahora de rango completo.
La matriz de los pesos:

=
1000000
20000
25000
33333
P

La matriz normal: N = A
T
PA




=
53333 20000 33333
20000 45000 25000
33333 25000 1058333
N

Las matrices D y E:

=
060 . 1
0695 . 0
0271 . 0
10
6
D ;


=
0326 . 0 7697 . 0 6373 . 0
0240 . 0 6384 . 0 7693 . 0
9992 . 0 0098 . 0 0393 . 0
E

= =

2350 . 0 1100 . 0 0100 . 0
1100 . 0 2767 . 0 0100 . 0
0100 . 0 0100 . 0 0100 . 0
10
4 1 1 T
E D E N

Puesto que det (N) =
1

2

3
= 1061883.45 0, existe la inversa regular N
-1
.

108

= =

2350 . 0 1100 . 0 0100 . 0
1100 . 0 2767 . 0 0100 . 0
0100 . 0 0100 . 0 0100 . 0
10
4 1 1 T
E D E N

Verifique que:

= = =

2350 . 0 1100 . 0 0100 . 0
1100 . 0 2767 . 0 0100 . 0
0100 . 0 0100 . 0 0100 . 0
10
) (
4 1 1
N
N adj
E D E N
T


El vector de trminos independientes del sistema de las ecuaciones normales: A
T
PL

=
0733 . 0
1150 . 0
0417 . 5
10
4
PL A
T


La solucin mnimos cuadrados: X = N
-1
A
T
PL

=

0550 . 0
0267 . 0
0500 . 0
733
1150
50417
2350 . 0 1100 . 0 0100 . 0
1100 . 0 2767 . 0 0100 . 0
0100 . 0 0100 . 0 0100 . 0
10
4
X

Las cotas ajustadas: Z
a
= Z + X =

055 . 140
027 . 120
050 . 100


Las correcciones a los desniveles: V = AX L =

0000 . 0
0083 . 0
0067 . 0
0050 . 0

La correccin a la cota observada del punto fijo 1 es igual a cero debido al gran peso
asignado (p
Z1
= 1000000). El punto 1 puede, realmente, considerarse como punto fijo.

Los desniveles ajustados: L
a
= L
b
+ V =

028 . 20
977 . 19
005 . 40


se verifica la condicin de cierre altimtrico:

0 028 . 20 997 . 19 005 . 40
3 2 1
= = h h h

Plantee y resuelva el ajuste altimtrico vinculado, considerando que la cota del punto
fijo 1 no tiene error; es decir, 0
1
=
Z
.
109
Propagacin de los errores de los observables a los parmetros ajustados:

Revisin de conceptos de probabilidad y estadstica:

.- Densidad de probabilidad y probabilidad acumulada: Sea X una variable estocstica
(aleatoria) unidimensional continua. Para que f(x) sea una funcin de densidad de
probabilidad de la variable estocstica continua X, deber cumplirse:

1).- 0 ) ( x f (37)
2).-

+

=1 ) ( dx x f (38)
La integral se toma sobre todo el dominio (poblacin de la variable estocstica X). La
probabilidad de que la variable estocstica X sea menor o igual que un cierto valor x, es:


= =
x
dt t f x F x X P ) ( ) ( ) ( (39)

La funcin F se denomina la funcin distribucin acumulativa y es creciente, segn su
definicin (39).

.- La media, expectacin o esperanza matemtica: La media, tambin llamada el valor
esperado de la variable estocstica continuamente distribuida, se define por:

+

= = dx x f x X E
X
) ( ) ( (40)

La media es una funcin de la densidad de probabilidad de la variable estocstica X. La
(40) es anloga a la media ponderada en el caso de las distribuciones discretas. En
general, si y = (x), se tiene:

[ ]

+

= dx x f x x E ) ( ) ( ) ( (41)

Algunas propiedades importantes de la media o esperanza matemtica se obtienen a
partir de las (40) y (41):

1.- [ ] [ ] [ ] ) ( ) ( ) ( ) ( x E x E x x E + = +
2.- Si c es una constante, [ ] [ ] ) ( ) ( x E c x c E =
3.- Si c es una constante, [ ] c c E =

.- La varianza: La varianza de una variable estocstica continua X cuya funcin de
densidad de probabilidad es f(x), se define por:

[ ] dx x f x X E
X X X
) ( ) ( ) (
2
2 2

+

= = (42)

La varianza mide la dispersin de la densidad de probabilidad en el sentido que da el
valor esperado de los cuadrados de las desviaciones respecto de la media. Una varianza
pequea indica que la mayor parte de la probabilidad est concentrada alrededor de la
media.
110

Ejemplo 4: Sea X una variable aleatoria continua cuya funcin densidad est definida
por:


=
x de valor otro cualquier para
e x para
x
c
x f
0
1
) (

e es la base de los logaritmos naturales.




figura 6


1.- Hallar c para que f(x) sea una funcin densidad.
2.- Hallar la media de X.
3.- Hallar la varianza de X.
4.- Hallar la funcin distribucin F.
5.- Calcular ( )
X X
X p

1.- El valor de c:

[ ] 1 1 ) 1 ln (ln
1
ln
1
) (
1 1
= > = = = = = =

+

c c e c
e
x c dx
x
c dx
x
c
dx x f
e e


2.- La media de X:

[ ] ... 71828 . 1 1
1
1
) ( ) (
1 1
= = = = = = =

+

e
e
x dx dx
x
x dx x f x X E
e e
X


3.- La varianza de X:

111
[ ]
2 2 2 2 2
2 2 2 2
2 2 2 2 2
) ( ) (
2 ) ( ) ( ) ( 2 ) (
) ( ) 2 ( ) ( ) ( ) (
X X X
X X X X X
X X X X X
dx x f x dx x f x
dx x f x dx x f dx x f x dx x f x
dx x f x x dx x f x X E



= > =
= + = + =
= + = = =



+

+

+

+

+

+

+

+

entonces:
2420 . 0 ) 3 )( 1 (
2
1
2
3
2
1
) 1 ( 1
2
1
2
1
) 1 (
) 1 ( ) 1 (
2
1
) 1 ( ) 1 ( ) 1 )( 1 (
2
1
) 1 ( ) 1 (
2
1
) 1 (
2
1
1 2
1
) (
2 2 2 2
2
1
2
1
2 2
= =

+ =

+ +
=

+ = + = =
=

= = =

+

e e e e e e e
e e e e e e e e
e
e
x
dx x dx
x
x dx x f x
X
e e


4919 . 0 2420 . 0
2
= > =
X X


4.- La funcin distribucin F:

[ ] ) 1 ( ln 1 ln ln
1
ln
1
) (
1
e x x x
x
t dt
t
x F
x
= = = =


















figura 7

5.- Clculo de: ( )
X X
X p

( )
[ ] % 91 . 58 5891 . 0 2264 . 1 ln 2102 . 2 ln ln
1 1
) ( ) (
2264 . 1
2102 . 2
2102 . 2
2264 . 1
= = = = =
= + = =

+

x dx
x
dx
x
X p X p X p
X X
X X
X X X X X X X X X




La probabilidad de que la variable estocstica X difiera de la media
X
en menos de una
desviacin estndar es igual a 0.5891 (58.91 %), figura 8.

X
F(X),f(x)
1
1
0
e
f(x)=1/x
F(x)=ln(x) F(x)=1
112

















figura 8

Distribucin Multivariable:

Sea X = [x
1
, x
2
,, x
n
]
T
una variable estocstica multidimensional, donde cada
componente x
i
(i = 1,n) es una variable aleatoria unidimensional. Cualquier funcin
f (x
1
, x
2
,, x
n
) de n variables continuas x
i
, puede ser una funcin densidad conjunta si:



+

+

+

=

1 ) , , , ( ) 2
0 ) , , , ( ) 1
2 1 2 1
2 1
n n
n
dx dx dx x x x f
x x x f
L L L
L
(43)

Se sigue que la extensin natural de la (39) es la funcin distribucin acumulada
conjunta:

= ) , , , (
2 2 1 1 n n
x X x X x X p L


=
1 2
2 1 2 1
1 ) , , , (
x x xn
n n
dt dt dt t t t f L L L (44)

La densidad marginal de un subconjunto de variables estocsticas (x
1
, x
2
,, x
p
); p<n,
es:


n p p n p
dx dx dx x x x f x x x g L L L L
2 1 2 1 2 1
) , , , ( ) , , , (
+ +
+

+

+


= (45)

Ejemplifiquemos para n = 2:

Sea X = [X
1
, X
2
]
T
y f (X
1
, X
2
) una funcin densidad conjunta si:


1 ) , ( ) 2
0 ) , ( ) 1
2 1 2 1
2 1
=


+

+

dx dx x x f
x x f
(46)

La funcin distribucin conjunta es:
X
f(x)
0
f(x)=1/x

x x
+
x x

x
58.91%
113

= ) , (
2 2 1 1
x X x X p
2 1
1 2
2 1 2 1
) , ( ) , ( dt dt t t f X X F
x x


= (47)

Las frecuencias marginales son:



+

+

= =
1 2 1 2 2 2 2 1 1 1
) , ( ) ( ) , ( ) ( dx x x f X f y dx x x f X f (48)

Si integramos f
1
(X
1
) y f
2
(X
2
) entre - y +, se tienen las (49):

) ( 1 ) , ( ) (
1 1 1 2 2 1 1 1 1
x f dx dx x x f dx x f > = =

+

+

+

es la funcin densidad de x
1
.

) ( 1 ) , ( ) (
2 2 2 1 2 1 2 2 2
x f dx dx x x f dx x f > = =

+

+

+

es la funcin densidad de x
2
.

Definicin: Se dice que X
1
, X
2
son estocasticamente independientes si y solamente si:

) ( ) ( ) , (
2 2 1 1 2 1
x f x f x x f = (50)

Vector de medias: La media o esperanza matemtica para la componente individual X
i

del vector X = [X
1
, X
2
,Xn]
T
, es:


n n i i Xi
dx dx dx x x x f x X E L L L
2 1 2 1
) , , , ( ) (

+

+

+

= = (51)

La media del vector X, es:

[ ] [ ]
T
Xn X X
T
n X
X E X E X E X E , , , ) ( , ), ( ), ( ) (
2 1 2 1
L L = = = (52)

Varianza y covarianza: La varianza de una componente individual X
i
, es:

[ ]
n n Xi i Xi i X
dx dx dx x x x f x Xi E L L L
2 1 2 1
2
2 2
) , , , ( ) ( ) (

+

+

+

= = (53)

En las distribuciones multivariables la covarianza o varianza conjunta es un concepto
muy importante. La covarianza describe la relacin estadstica entre dos variables
estocsticas y se define por la (54):

[ ]
n n Xj j Xi i Xj Xi XiXj
dx dx dx x x x f x x Xj Xi E L L L
2 1 2 1
) , , , ( ) ( ) ( )( ( = =

+

+

+


Mientras que la varianza es siempre mayor o igual que cero, la covarianza puede ser
positiva, negativa o cero.

Coeficientes de correlacin: El coeficiente de correlacin de dos variables estocsticas
X
i
, X
j
se define por:

114

( )( )
i Xi j Xj XiXj
XiXj
Xi Xj Xi Xj
E X X




= = (55)

Una propiedad importante del coeficiente de correlacin es la siguiente:

1 1
XiXj
(56)

Si dos variables aleatorias son estocasticamente independientes, entonces la covarianza
(y tambin el coeficiente de correlacin) es igual a cero. Sea por ejemplo, X= [X
1
, X
2
]
T

y la funcin densidad conjunta es f(X
1
,X
2
). Si X
1
, X
2
son estocasticamente
independientes, entonces de la (50):
1 2 1 1 2 2
( , ) ( ) ( ) f x x f x f x = donde
1 1 2 2
( ) ( ) f x y f x son
las frecuencias marginales. La covarianza es:

1 1 2 2 1 2 1 2 1 1 2 2 1 1 2 2 1 2
( )( ) ( , ) ( )( ) ( ) ( )
XiXj X X X X
x x f x x dx dx x x f x f x dx dx
+ + + +

= =


2 2 2 2 2 1 1 1 1 1
) ( ) ( ) ( ) ( dx x f x dx x f x
X X XiXj

+

+

=

1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2
( ) ( ) ( ) ( )
XiXj X X
x f x dx f x dx x f x dx f x dx
+ + + +


=





pero:
1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2
( ) , ( ) 1, ( ) , ( ) 1
X X
x f x dx f x dx x f x dx f x dx
+ + + +

= = = =



entonces:

1 2 1 1 2 2
( ) ( ) 0
X X X X X X
= =

Luego: independencia estocstica correlacin nula

La proposicin inversa es vlida solamente para la distribucin normal multivariable,
como veremos mas adelante.

Ejemplo5: Sea la funcin de densidad conjunta definida por:


=
forma otra de
x x si x x c
x x f
0
5 1 , 4 0
) , (
2 1 2 1
2 1


1.- Calcular el valor de c para que f(x
1
, x
2
) sea una funcin densidad conjunta.
2.- Calcular
1 2
( 3) p x x + .
3.- Hallar las densidades o frecuencias marginales
1 1 2 2
( ) ( ) f x y f x .
4.- Son X
1
y X
2
estocasticamente independientes?

1.- El valor de c:


115

















figura 9 figura 10

96
1
1 96 8 12
2
12 24
2
) 1 25 (
2
2
) , (
0
4
4
0
2
1
1 1
1
4
0
1
1
1
5
4
0
2
2
1 1
4
0
5
1
4
0
5
1
2 2 1 2 1 2 1 2 1
,
2 1
= > = = =

= = =
=

= =


+

+

c c c
x
c dx x
c
dx x
c
dx
x
x c dx dx x x c dx dx x x c dx dx x x f
2.-
1 2
( 3) p x x + :

















figura 11

[ ] = =

= = +

1
2
0
1
2
1 1 1
1
3
2
0
2
2
1
2
0
3
1
2 1 2 1 2 1
) 3 (
96 2
1
2 96
1
96
1
) 3 (
1
1
dx x x x dx
x
x dx dx x x x x p
x
x


f(x1,x2)
X1
X2
0 4
5
0
1
2
3
4
1
2
3
4
5
x2
x1
X1
X2
0 4
5
4
3
2
1
1 2 3
X1+X2=3
X2=1
X1+X2<3
116
2 3 4
2 2
2 2 3 1 1 1
1 1 1 1 1 1 1 1
0 0
2
1 1 1
(9 6 1) (8 6 ) 8 6
0 2 96 2 96 2 96 2 3 4
x x x
x x x dx x x x dx

= + = + = + =




4
2 3 1
1 1
2
1 1 16 1 2
4 2 16 16 4 0.02083 2.08%
0 2 96 4 2 96 4 2 96 96
x
x x


= + = + = = =






1 2
( 3) p x x + = 2.08 % (probabilidad de que la variable aleatoria conjunta (X
1
, X
2
)
tome valores dentro del rea sombread en la figura.

3.- Densidades marginales:

2
5
1 2 1
1 1 1 2 2 1 2 2 1 1
1
5
1 24 1
( ) ( , ) (25 1)
1 96 96 2 96 2 2 96 8
x x x
f x f x x dx x x dx x x
+


= = = = = =





1 1 1
1
( )
8
f x x =

2
4
2 1 2 2
2 2 1 2 1 1 2 1 2
0
4
1 8
( ) ( , ) 16
0 96 96 2 96 2 96 12
x x x x
f x f x x dx x x dx x
+


= = = = = =





2
1 1
( )
12
x
f x =

4.- Independencia estocstica:

1 2
1 1 2 2 1 2 1 2
1 1
( ) ( ) ( , )
8 12 96
x x
f x f x x x f x x = = = X
1
, X
2
son estocasticamente
independientes.

La matriz varianza-covarianza:

Sea X = [X
1
, X
2
,, X
n
]
T
una variable estocstica multidimensional (conjunta) y sea
X
= E(X) = [
X1
,
X2
,,
Xn
]
T
el vector de medias. La matriz varianza-covarianza se
define por:

( )( )
T
X X X
E X X =

(57)

puesto que:
[ ]
1 1 2 2
, , ,
T
X X X n Xn
X X X X = L , se tiene:


117



=
] ) [( .
)] )( [( ] ) [(
)] )( [( )] )( [( ] ) [(
2
2 2
2
2 2
1 1 2 2 1 1
2
1 1
Xn n
Xn n X X
Xn n X X X X
X
X E sim
X X E X E
X X E X X E X E



M O
L
L



entonces, la matriz varianza covarianza de la variable estocstica conjunta X, es:


2
1 1 2 1
2
2 2
2
.
X X X X Xn
X X Xn
X
sim Xn




=




L
L
O M
(58)

Propagacin:

Sea Y una funcin lineal de la variable estocstica multidimensional X = [X
1
, X
2
,,
X
n
]
T
:

Y AX X = + (59)

donde A es una matriz de orden rxn y X es un vector constante de orden rx1. El valor
esperado de Y es:

[ ] [ ] [ ] [ ] [ ] [ ]
Y
E Y E AX X E AX E X E AX X AE X X = = + = + = + = +


Y X
A X = + (60)

La (60) es la ley de propagacin de la media.

La ley de propagacin de la varianza-covarianza es como sigue, segn la definicin
(57):

( )( ) ( )( )
( )( ) ( )( ( )) ( )( )
T T
Y Y Y X X
T T T T
X X X X X X
E Y Y E AX X A X AX X A X
E AX A AX A E A X A X E A X X A


= = + + =

= = = =

( )( )
T T T
X X X
AE X X A A A = =


entonces:


T
Y X
A A = (61)

La (61) es la generalizacin de la (28) del tema 1.




118
Distribucin normal multivariable conjunta:

La estadstica complementa la teora del ajuste mnimos cuadrados puesto que posibilita
formular sentencias objetivas acerca de los datos. Los requerimientos bsicos consisten
en que tanto el modelo funcional como el modelo estocstico sean correctos y que las
observaciones tengan distribucin normal multivariable o conjunta. Si bien la estadstica
no garantiza una decisin correcta, resulta til a la hora de tomarla.
Comenzaremos con un hecho muy frecuente en topografa. Se trata pues de obtener las
coordenadas cartesianas X, Y de un punto P mediante la observacin de rumbo y
distancia D, figura 12, Suponemos errores estndar

,
D
para los observables rumbo y
distancia respectivamente.















figura 12

Si hacemos un nmero muy grande de observaciones para el rumbo y la distancia D,
las coordenadas:


cos X D
Y Dsen

=
=
(62)

se distribuyen como muestra la figura (12) con gran concentracin (densidad) alrededor
de las coordenadas medias , X Y y disminuyendo su concentracin en forma radial.
La funcin densidad conjunta es la distribucin normal bivariable f (X, Y) donde X, Y
son variables estocsticas con distribucin normal, figura 13. Obsrvese que la densidad
de probabilidad disminuye en forma radial conforme nos alejamos del punto
( )
, X Y .










. .
.
. . . .
. .
. . . . . .
.
.... . .
.
.
..
.
..
..
.
.
.
.
.
.
.
.
.
... .
.
..
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
..
..
.
.
.
..
.
.
.
.
.
. .
.
...
. . .
. .
. .
.. .
. . .
. . .
..
...
. .
...
. ....
.
.
..
. .
.
...
.
. . .
.
.
. .
.
.
.
..
.
.
.
.
.
.
...
.
.
.
. .
..
.

y
x
X
Y
0
x
y
D


D
D
.
.
.
.
.
.
.
.
.
. . ... ...
.
.
. .
.
..
.
.
.
.
.
. . ....
. . .
.
... ..
.
.
.
..
.
..
..
.
...
.
. .
.
.
.. .
.
. .
..
.
. .
.
.
.
...
.. . .
. .
. .
..
.
.
.
.
. .
.
. . .
. . . .
... . .
.
.
.
.
. .
.
.
..
.
..
..... .
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
..
119


















figura 13

Sea en general, un vector X de orden nx1 cuyas componentes son variables estocsticas.
El vector de medias es:

[ ]
X
E X = (63)

y la matriz varianza-covarianza es:

( )( )
T
X X X
E X X =

(64)

de orden nxn. Si X tiene distribucin normal multivariable o conjunta, la funcin
densidad conjunta es:


1
1
( ) ( )
2
1 2
1
2
2
1
( , , , )
(2 )
T
X X X
X X
n n
X
f x x x e

L (65)

La media (63) y la matriz varianza-covarianza (64) describen completamente la
distribucin norma multivariable:

X
nx1
N
n
(
Xnx1
,
Xnxn
) (66)

esta notacin significa que X distribuye normal multivariable con media
X
y matriz
varianza-covarianza
X
, siendo n la dimensin de la distribucin.
Para n = 1, por ejemplo, se tiene una variable estocstica unidimensional X
1x1
= [x]. En
este caso:


1
2 2 1
2
2
1
; ; ;
X X X X

= = = =

Y
f(x,y)
.
.
.
. .
.
.
. . .
...
.. .
.
.
..
...
.
.
.
.
..
.
..
.
. . .
.
.
.
.
.
.
.
.
.
.
..
. .
.
..
. . .
.
.
.
. .
. .
.
.
. .
.
.
.
.
.
.
.
.. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
..
.
. . .
.
.
.
.
.
.
.
. .
.
.
..
.
. .
.
. .
.
.
.
.
.
. . . .
... .
.
..
.
.
....
..
.
. . ..
X
120
donde
2
es la varianza de X y es su media. Sustituyendo en (65), se tiene:


2
2
1 ( )
2
1
( )
2
x
f x e

= (67)

que es la ya conocida ecuacin de la curva normal de Gauss.

Par n = 2 se tiene el conjunto de las expresiones siguientes:

[ ] [ ] [ ]
2
1 12
1 2 1 2
2
21 2
, ; , ;
T T
X X
X x x E X




= = = =




Para simplificar la notacin se ha considerado:


2 2 2 2
1 1 2 2; 1 1 2 2 1 2 12 1 2 12
; ; ; ;
x x x x x x x x
= = = = = =

[ ]
12
12 1 1 2 2
1 2
; ,
X
X x x



= =

El determinante de la matriz varianza-covarianza es:


2
2
2
1
2
12
2
2
2
1
2
12
2
2
2
1
= =
X
= ) 1 (
2
12
2
2
2
1


entonces:
2
12 2 1
2
1
1 ( =
X


La inversa de la matriz varianza-covarianza, es:


2
1 2 12
2 2 2
1 2 12 12 1
1
( ) (1 )
X


=





Veamos ahora la expresin:
1
1
( ) ( )
2
T
X X X
X X

en la (65); (simplificando la
notacin
12
= )

2
2 12
2 2 2
1 2 12 1
2
1 1 2 12
1 1 2 2 2 2 2
2 2 1 2 12 1
1 1 2 2
1 1 2 2 2 12 1 1 12 2 2 1 2 2
2 2 1 2
1 1
( ) ( )
2 ( ) (1 )
1 1
( , )
2 ( ) (1 )
1
( ) ( ) , ( ) ( )
2( ) (1 )
T
X X
X X
x
x x
x
x
x x x x
x








=




= =




= + =






121
2 2 2 2
1 1 2 1 1 2 2 12 1 1 2 2 12 2 2 1 2 2
1 2
2 2 2 2
1 1 2 1 1 2 2 12 2 2 1 2 2
1 2
2 2
1 1 1 1 2 2 2 2
12 2 2 2 2 2
1 1 2 2
1
( ) ( )( ) ( )( ) ( )
2( ) (1 )
1
( ) 2( )( ) ( )
2( ) (1 )
( ) ( )( ) ( ) 1
2
2(1 )
x x x x x x
x x x x
x x x x





= + =

= + =


= +

2 2
1 1 1 1 2 2 2 2
1 2 2 2 2 2 2
1 1 2 2
2 2
1 1 1 1 2 2 2 2
2 2 2
1 1 2 2
( ) ( )( ) ( ) 1
2
2(1 )
( ) ( )( ) ( ) 1
2
2(1 )
x x x x
x x x x





=



= + =



= +



entonces, la funcin densidad conjunta para la distribucin normal bivariable, es:


2 2
1 1 1 1 2 2 2 2
2 2 2
1 2 1 2
( ) ( )( ) ( ) 1
2
2(1 )
1 2
2
1 2
1
( , )
2 1
x x x x
f x x e





+


=

(68)

Si asumimos correlacin cero ( = 0), la (68) se transforma en:


2 2
1 1 2 2
2 2
1 2
( ) ( ) 1
2
1 2
1 2
1
( , )
2
x x
f x x e





+


= (69)
es decir:


2 2
1 1 2 2
2 2
1 2
( ) ( ) 1 1
2 2
1 2
1 2
1 1
( , )
2 2
x x
f x x e e





= (70)

donde:


2 2
1 1 2 2
2 2
1 2
( ) ( ) 1 1
2 2
1 1 2 2
1 2
1 1
( ) ; ( )
2 2
x x
f x e f x e





= =

1 1 2 2
( ) ( ) f x y f x son las densidades marginales o frecuencias propias de x
1
y x
2

respectivamente. Luego:


1 2 1 1 2 2
( , ) ( ) ( ) f x x f x f x =

Concluimos entonces que si X = [x
1
, x
2
]
T
distribuye normal bivariable con media
X
y
varianza-covarianza
X
, entonces:

correlacin nula independencia estocstica



122
Las elipses de error como regiones de confianza:

Sea una distribucin normal conjunta bivariable de las variables estocsticas x
1
, x
2
donde X = [x
1
, x
2
]
T
. Los valores esperados o medias son:


1 2
( ) ( ) 0 E x E x = = [ ]
1 2
0
,
0
T
X


= =




y sus varianzas son
2 2
1 2
,
x x
respectivamente.
La funcin densidad conjunta, es entonces:


2 2
1 1 2 2
2 2 2
1 2 1 2
1
2
2(1 )
1 2
2
1 2
1
( , )
2 1
x x x x
x x x x
f x x e
x x




+


=

(71)

Hacemos:


2 2
2 1 1 2 2
2 2 2
1 1 2 2
1
2
2(1 )
x x x x
x x x x
S


= +


(72)

La (72) es la ecuacin de una elipse rotada y centrada en el origen O, para
1 2
( , ) f x x =
constante. Cortando la superficie (71) con planos de probabilidad constante
(
1 2
( , ) f x x = constante), figura 14, se tendr una familia de elipses proyectadas sobre el
plano Ox
1
x
2
(rea sombreada), cuyas ecuaciones estn dadas por la (72).























figura 14
X
f(x,y)
Y

1
z
2
f(x,y)=cte
123
Rotando el sistema de coordenadas un ngulo , figura 15, se tiene un nuevo sistema de
coordenadas Oz
1
z
2
, respecto del cual se anula el coeficiente de correlacin y la
ecuacin de la elipse dada en el sistema original Ox
1
x
2
por la (72), se expresa en el
nuevo sistema coordenado Oz
1
z
2
:


2 2
2 1 2
2 2
1 2
2
z z
z z
S

+ = (73)


















figura 15


La transformacin de coordenadas se efecta por la expresin matricial obtenida del
esquema de cosenos:

esquema de cosenos: transformacin de coordenadas:

2
1
2
1
cos
cos
x
x
sen
sen
z
z




Para calcular la probabilidad de que la variable estocstica conjunta X = [x
1
, x
2
]
T
ocurra
(tome valores) dentro de la regin de confianza encerrada por la elipse, figuras 14 y 15,
resulta mas cmodo trabajar con la expresin (73). Llamando a la regin de confianza
encerrada por la elipse (73), se tiene:


[ ]
2 2
1 2
2 2
1 2
1
2
1 2 1 2 1 2 1 2
1 2
1
( , ) ( , )
2
z z
z z
p z z f z z dz dz e dz dz
z z



+



= =



La ecuacin de la elipse en el sistema Oz
1
z
2
, puede expresarse por:


x
1
x
2

z
1
cos sen
z
2
-sen cos
X 2
X 1
Z
2
Z
1

Z1 / +
2
z 1
2
Z2 / = 2 . 5
2
z 2
2
2
0
124

2 2
2 1 2
2 2
1 2
( 2 ) ( 2 )
z z
z z
S

+ = (74)

Efectuando el cambio de variables:
1 2
1 2
;
2 2
z z
z z
u v

= = , se tiene entonces:

du dz u z
z z 1 1 1 1
2 2 = > =
dv dz v z
z z 2 2 2 2
2 2 = > =
luego:

2 2 2
u v S + = (75)

La (75) es la ecuacin de una circunferencia de radio S, que encierra una regin ; se
tiene entonces:

[ ] [ ]
2 2
1
2( )
2
1 2 1 2
1 2 '
1
( , ) ( , ) ' 2 2
2
u v
z z
z z
p z z p u v e du dv


+

= =


[ ]
2 2 2 2
1 2
1 2 ' '
2 1
( , ) '
2
u v u v
z z
z z
p u v e du dv e du dv



+ +


= =



Cambiando a coordenadas polares: cos ; u r v r sen = = , donde el jacobiano de la

transformacin es:
2 2
cos
cos
cos
u u
r sen
u v
r
J r r sen r
v v sen r r
r




= = = + =






entonces:

[ ]
2 2
0 0
1
( , ) '
S
r
p u v d e r dr


=



teniendo en cuenta que:
2
2
( )
( ) 2
2
d r
d r rdr rdr = > = , y reemplazando en la
anterior:
[ ]
2 2 2 2 2
2
2
2
0 0 0
1 1 1
( , ) ' 2 ( 1) 1
0 2 2
S S
r r r S S
S
dr
p u v d e e dr e e e





= = = = =


Puesto que: [ ] [ ] [ ]
1 2 1 2
( , ) ( , ) ( , ) ' p x x p z z p u v = = , entonces:


[ ]
2
1 2
( , ) 1
S
p z z e

= (76)

Si en la (74) dividimos ambos miembros por S
2
:

125

2 2
1 2
2 2
1 2
1
( 2 ) ( 2 )
z z
z z
S S
+ = (77)

donde los semiejes A y B de la elipse estn dados por:


2 2
1 1
2
2
z z
z z
c S B
c S A


= =
= =
(78)

donde S c 2 = (79)

Para
1
1
2
S c = > = y se tiene, de la (77), la ecuacin de la elipse de error
estndar:


2 2
1 2
2 2
1 2
1
z z
z z

+ = (80)

con semiejes:


1
2
z
z
A
B

=
=
(81)

La probabilidad de que la variable estocstica conjunta X = [x
1
, x
2
]
T
, tome valores
dentro de la elipse de error estndar, es:

[ ] [ ]
2
1
1
2
2
1 2 1 2
( , ) . ( , ) . 1 1 1 0.6065 0.393 p x x est p z z est e e



= = = = =

es decir: [ ]
1 2
( , ) . 0.393 39.3% p x x est = =

donde denotamos con est. a la regin comprendida por la elipse estndar.
Podemos calcular el coeficiente c, (79), para la elipse del 95% de confianza a fin de
determinar sus semiejes mximo A y mnimo B, respectivamente. De las (78):


1 2 z z
A c y B c = =

entonces:
[ ]
2 2
2
1 2 95
( , ) 1 0.95; 1 0.95 0.05; ln 0.05
S S
p x x e e S

= = = = =
2 2
2.9957; 2.9957; 1.7308 S S S = = = luego: 2 2 1.7308 2.448 c S = = =
Entonces, los semiejes mayor y menor para la elipse de error del 95% de confianza, son:


2
1
448 . 2
448 . 2
Z
Z
B
A

=
=
(82)

126
Debemos hallar la forma de determinar z
1
, z
2
y para calcular los semiejes A y B de
la elipse de error y su orientacin .
De la expresin:

2
1
2
1
cos
cos
x
x
sen
sen
z
z


Z = EX

se obtiene la matriz varianza-covarianza de Z en funcin de la matriz varianza-
covarianza de X:

cos
cos
cos
cos
0
0
2
2 2 1
2 1
2
1
2
2
2
1
sen
sen
x x x
x x x
sen
sen
z
z
Z
(83)

puesto que
z1z2
= 0, dado que = 0 en el sistema coordenado Oz
1
z
2
.
Efectuando los productos matriciales en la (83):

cos 2 cos
2 1
2 2
2
2 2
1
2
1
sen x x sen x x z + + =
cos 2 cos
2 1
2 2
2
2 2
1
2
2
sen x x x sen x z + = (84)

Las (84) permiten calcular
z1
y
z2
en funcin de
x1
,
x2
y
x1x2
. Falta determinar :
Se tiene tambin:
0 cos cos cos
2
1
2
2
2
2 1
2
2 1
= + sen x sen x sen x x x x
0 cos ) ( ) (cos
2
2
2
1
2 2
2 1
= sen x x sen x x
0 2 2
2
1
) ( 2 cos
2
2
2
1 2 1
= sen x x x x

2
2
2
1
2 1
2
2 cos
2
x x
x x
tg
sen

= = (85)

Entonces:

2
2
2
1
2 1
2
2
1
x x
x x
arctg

= (86)

La (86) provee la orientacin del semieje mayor de la elipse de error, figura 15.
Tngase en cuenta que la matriz varianza-covarianza de Z,
Z
, es una matriz diagonal,
cuyos elementos diagonales son los valores propios
1
y
2
de la matriz varianza-
covarianza
X
de la variable aleatoria conjunta X, entonces:


2
1 1 1 1
2
2 2 2 2
z z
z z


= > =
= > =
(87)

donde
1
y
2
son, respectivamente los valores propios mximo y mnimo de
X
.
La ecuacin caracterstica es:


2
( ) det( ) 0
X X
tr + = (88)

127
cuyas races son:

[ ]
2
1 2
( ) ( ) 4det( )
2
X X X
tr tr


= (89)

Entonces los semiejes de la elipse estndar estn dados por:


1 2
; A B = = (90)

y el rumbo (orientacin) de A, est dado por la (86).

Ejemplo 6: Determinar las elipses de error estndar y del 95% para el punto P, siendo el
rumbo = 30 y la distancia D = 1270 m (valores aproximados de rumbo y distancia) y

= 5,
D
= 0.05 m los errores estndar de rumbo y distancia respectivamente.













figura 16

Las coordenadas del punto P, son:


cos ( , )
( , )
X D f D
Y Dsen g D


= =
= =


donde f y g son funciones no lineales que deben ser linealizadas. Las diferenciales
totales de X e Y, son:


; ;
; ;
f f
dX dD d dX X X dD D D
D
g g
dY dD d dY Y Y d
D


= + = =


= + = =



donde el superndice indica valor aproximado.

Y
X
P
D
0

128

( ) ( )
( ) ( )


f f
X X D D
D
g g
Y Y D D
D
f f f f
X D D X
D D
g g g g
Y D D Y
D D






= +


= +


= + + +




= + + +





expresado matricialmente es:


0


f f f f
X D D X D D
X AL C
Y g g g g Y
D D







= + > = +








donde:

D
L
D sen
sen D
g
D
g
f
D
f
A ;
cos
cos


=
2
1

cos
cos
C
C
Y
X D
D sen
sen D
C





El vector C es una constante, entonces la matriz varianza-covarianza de X, es:


T
X L
A A =

Puesto que D y son variables estocsticas independientes,
D
= 0, entonces:

=

8523 . 1099 635
5 . 0 866 . 0
10 9 . 5 0
0 0025 . 0
8523 . 1099 5 . 0
635 866 . 0
10 2
2
Y XY
XY X
X


=
00130 . 0 00067 . 0
00067 . 0 00210 . 0
2
2
Y XY
XY X
X




traza: tr (
X
) =
X
2
+
Y
2
= 0.0034; determinante: det (
X
) =
X
2

Y
2
-
XY
2
= 0.000002281

=
cos
cos
0
0
cos
cos
2
2
2
2

D sen D
sen
D sen
sen D
D
Y XY
XY X
X
129
La ecuacin caracterstica:
2
-0.0034 + 0.000002281 = 0

races:
1
= 0.00249 (max.);
2
= 0.00094 (min.)

Los semiejes de la elipse estndar:
1 2
0.05 , 0.03 A m B m = = = =
El rumbo del semieje mayor:
2 2
2 1 1 2 0.00067
2 2 0.0021 0.0013
XY
X Y
arctg arctg


= =


29 34' 52" =

La elipse del 95%:

1 2
2.45 0.125 , 2.45 0.078 ; 29 34' 52" A m B m = = = = =

Propagacin de los errores de los observables a los parmetros ajustados:

Caso de la red plana: Sea en general:

[ ]; 1,
b bi
L l i n = = (91)
el vector de observables que distribuye normal multivariable con media
Lb
y matriz
varianza-covarianza
Lb
:

L
b
N (
Lb
,
Lb
) (92)

En general, las componentes de L
b
son variables estocsticas independientes (
lbilbj
=
0), entonces la matriz varianza-covarianza de L
b
es:


2
1
2
2
2
ln
l
l
Lb




=




O
(93)

se ha eliminado el subndice b en las observaciones por simplicidad en la notacin.
En (93)
li
i = 1, n, son los errores estndar de las observaciones l
bi
y
li
2
las
correspondientes varianzas. Los pesos de las observaciones son:


2
0
2 i
li
p

= (94)

donde
0
2
es la varianza de la observacin de peso 1 (si hacemos
0
2
= 1 se le denomina
la varianza a-priori). De la (94).


2
2 0
li
i
p

=
entonces:

130

2
0
1 1
2
0
2 2 1
2 0 0 2
2
0
1
1
1
Lb
n
n
p p
p P p
p
p











= = =












O O
(95)

La matriz varianza-covarianza del vector L
b
de las observaciones se expresa, entonces:


2 1 2
0 0 Lb Lb
P Q

= = (96)

donde:


1
Lb
Q P

= (97)

se denomina la matriz cofactor del vector L
b
de las observaciones.
La solucin mnimos cuadrados, en el caso de una red plana vinculada, es:


1 T
X N A PL

=

As pues, los errores de observacin,
li,
contenidos en el vector L = L
b
L, se
propagan al vector X relacionado con los parmetros (coordenadas planas) ajustados
segn:

; 1,
j j j
j j j
X X dX
Y Y dY j m
= +
= + =

en forma matricial:

Xa X X = + (98)

donde Xa es el vector de parmetros ajustado.
La matriz varianza-covarianza del vector X solucin mnimos cuadrados cuyas
componentes son las correcciones diferenciales dX, dY a las coordenadas aproximadas
X, Y, es segn la ley de propagacin de la varianza-covarianza:


( ) ( )
T T T T T
X
T
T
L
T
X
N A P P P A N
P A N P A N
) ( ) (
1 1 2
0
1
1 1


=
=



Puesto que:
1 1 1
( ) ; ( ) ( ) ;
T T T T T
A A N N N P P

= = = = , es tiene:

2 1 1 1 2 1 1 2 1 1 2 1
0 0 0 0
( ) ( )
T T
X
N A PP PAN N A PA N N N N N

= = = =


2 1 2
0 0 X X
N Q

= = (99)
131
donde Q
X
= N
-1
es la matriz cofactor de los parmetros (coordenadas ajustadas).

En el caso de la red plana libre, la solucin mnimos cuadrados, mnima norma es:


T
X N A PL
+
= (100)

donde N
+
es la pseudoinversa de Moore-Penrose, con las propiedades siguientes:

2 2
)
)
)
) : ( )
) : ( )
) ( ) ( ) : ( )
T
T
X Xj Yj
i NN N N
ii N NN N
iii N N y NN son simtricas
iv X es tal que V PV mnimo mnimos cuadrados
v X es tal que X X mnimo mnima norma
vi tr Q mnimo mnima traza mnimo
+
+ + +
+ +
=
=
=
=
= + =


entonces de (100):

X X
X
T
X
T
X
T T T
X
T T
L
T
X
Q N N N N
N N N
N PA A N
PAN PP A N
P A N P P A N
P A N P A N
2
0
2
0
2
0
2
0
2
0
1 2
0
1 2
0
) (
) (
) ( ) (
) ( ) (


= = =
=
=
=
=
=
+ + +
+ +
+ +
+ +
+ +
+ +


donde:


+
= N Q
X
(101)

es la matriz cofactor de las coordenadas planas ajustadas en el caso de una red plana
libre. La matriz varianza-covarianza del vector X, es entonces:


X X
Q N
2
0
2
0
= =
+
(102)

La varianza de la observacin de peso 1 se denomina la varianza a priori y generalmente
se le asigna valor 1; es decir:

1
2
0
= (103)

En ese caso los pesos de las observaciones se calculan:


2
1
li
i
p

= (104)

132
La varianza a posteriori o varianza del ajuste, es un estimador de la varianza a priori y
se obtiene por:


[ ]

pvv V P V
T
= =
2
0
(105)

donde:
= n - (N) = n- m + r (106)

Siendo r el defecto de rango (r = m - (N)) de la matriz normal N (recordar que (N) =
(A)).
La varianza a priori es en realidad, la varianza poblacional que se estima con la varianza
a posteriori dada en (105) y calculada en funcin de los residuos a partir de una muestra
de tamao n (nmero de observaciones).

La prueba chi-cuadrado:

Una de las caractersticas importantes del ajuste mnimos cuadrados es la estimacin de
la varianza de las observaciones de peso 1; es decir la varianza a priori o poblacional,
en base a los residuos de las observaciones y a la matriz de los pesos P, (105). En las
(105) y (106) es la redundancia de la red, n es el nmero de observaciones y m es el
nmero de parmetros a ajustar, mientras que r es el defecto de rango de A y N y
tambin representa el nmero de grados de libertad de la red.
La formulacin para el estadstico ms importante en el ajuste mnimos cuadrados es:


2
0
2
0
2
0
2

= =
PV V
T
(107)

El estadstico (107) tiene distribucin chi cuadrado con grados de libertad. En base a
este estadstico, el test permite establecer si el ajuste est distorsionado o si es correcto.
La formulacin de las hiptesis es como sigue:

Hiptesis nula; H
0
:
2
0
2
0
=
Hiptesis alternativa; H
1
:
2
0
2
0
(108)

La hiptesis nula H
0
establece que la varianza a priori de peso 1 es estadsticamente
igual a la varianza a posteriori de peso 1. Recordemos que la varianza a posteriori de
peso 1 es una variable estocstica y que el ajuste nos permite obtener un valor muestral
para esta cantidad en funcin de las observaciones; es decir a partir de la muestra.
Ambas varianzas no tienen por que ser numricamente iguales, pero deben ser
estadsticamente iguales en el sentido de que la esperanza de la varianza muestral (a
posteriori) es igual a la varianza poblacional (a priori); es decir:

[ ]
2
0
2
0
= E (109)

133
Si se acepta la hiptesis nula, el ajuste se juzga correcto. Llamando
2
al estadstico
muestral
2
0
2
0

, se tiene:


2
1 ,
2 2
2
,
2

< < (110)



donde es el nivel de significacin adoptado, figura 17.



figura 17

De la (110):


2
1 ,
2
2
0
2
0
2
,
2

< <

2
1 ,
2 2
0
2
0
2
,
2
1


> >


2
1 ,
2
2
0
2
0
2
,
2
2
0

> >


2
,
2
2
0
2
0
2
1 ,
2
2
0


< <

(111)

La hiptesis nula se acepta si la varianza a priori (varianza poblacional) se encuentra
entre los lmites de confianza al nivel 1 - , especificados en (111). El nivel de
significacin ; es decir la probabilidad de cometer un error tipo I (rechazar la hiptesis
nula cuando sea verdadera), se fija generalmente en 0.05 (5%). El nivel de significacin
es igual a la suma de las probabilidades en ambas colas de la distribucin chi
cuadrado, figura 17. En el ajuste mnimos cuadrados se adopta el valor 1 para la
varianza a priori de peso 1, entonces de la (111) se tiene:

134

025 . 0 ,
2
2
0
975 . 0 ,
2
2
0


< < (112)
La (112) es la condicin que debe cumplirse para aceptar la hiptesis nula y decidir que
el ajuste es correcto. El rechazo de la hiptesis nula puede ser causado por un
inadecuado modelo funcional, modelacin incorrecta de errores y pesos o ambos. La
presencia de errores groseros en las observaciones, es tambin una causa frecuente de
rechazo de la hiptesis nula. La prueba chi cuadrado es un detector eficiente de errores
groseros.

Precisin del posicionamiento de los vrtices de una red plana:

La precisin del posicionamiento de los vrtices de una red plana ajustada se describe
por medio de las elipses de error absolutas correspondientes. Para ello es necesario
determinar los parmetros de las elipses en todos y cada uno de los puntos de la red.
La matriz varianza-covarianza del vector solucin mnimos cuadrados X de una red
plana de p puntos es:

=
2
.
2
2
2
1 1 1 1
2
1
1 1 1 1 1 1
2
1
Yp sim
XpYp Xp
YjYp YjXp Yj
XjYp XjXp XjYj Xj
Yp Y Xp Y Yj Y Xj Y Y
Yp X Xp X Yj X Xj X Y X X
X






M M O
L
L
M M L M M O
L L
L L
(113)

Para el j-simo punto de la red, la j-sima submatriz diagonal 2x2, es:


jj
YjYj sim
XjYj XjXj
Yj sim
XjYj Xj
Q
q
q q
2
0
.
2
0 2
.
2

(114)

De la igualdad de matrices en (114) resulta:


YjYj Yj
XjXj Xj
q
q
2
0
2
2
0
2



=
=
(115)
Los errores estndar de las coordenadas ajustadas en la direccin de los ejes
coordenados X, Y, son:


YjYj Yj
XjXj Xj
q
q
0
0



=
=
(116)

Los parmetros de las elipses de error en cada uno de los vrtices de la red, se obtienen
de sus correspondientes submatrices diagonales de orden 2x2.
135
El rumbo (orientacin) del semieje mayor A es en el j-simo punto:


YjYj XjXj
XjYjq
q q
q
tg

=
2
) 2 (
YjYj XjXj
XjYjq
q q
q
arctg

=
2
2


YjYj XjXj
XjYj
q q
q
arctg

=
2
2
1
(117)

La ecuacin caracterstica de la matriz Q
jj
, es:

0 ) det( ) (
2
= +
jj jj
Q Q tr (118)

sus soluciones; es decir los valores propios de Q
jj
:


[ ]
2
) det( 4 ) ( ) (
2
2 1
jj jj jj
Q Q tr Q tr
=

(119)

Los semiejes de la j-sima elipse estndar:


2 0 1 0
; = = B A (120)

Teniendo en cuenta que:


2
) det(
) (
XY YY XX
YY XX
q q q Q
q q Q tr
=
+ =
(121)

(se han obviado los subndices por comodidad en la notacin)
La expresin de los valores propios es:

2
2
2 1
2 2 2
2 1
2 2 2
2 1
2 2
2 1
4
) (
2
4
4 2
2
2
4 4 2
2
2
) ( 4 ) (
XY
YY XX YY XX
XY YY XX YY XX YY XX
XY YY XX YY XX YY XX
YY XX
XY YY XX YY XX YY XX
q
q q q q
q q q q q q q
q q q q q q q
q q
q q q q q q q
+

+
=
+ +

+
=
+ + +

+
=
+ +
=



entonces los semiejes de la j-sima elipse son:

136
2
0
2
0
4
2 ) (
2

4
2 ) (
2

XY
YY XX YY XX
XY
YY XX YY XX
q
q q q q
B
q
q q q q
A
+

+
=
+

+
+
=

(122)
Recordemos que la desviacin estndar muestral
) (

0
A n
PV V
T

= estima la
desviacin estndar poblacional
0
. Los semiejes mayor A y menor B, representan el
mximo y el mnimo error de posicionamiento del punto Pj, en las direcciones y +
/2 respectivamente. La figura 18 sintetiza lo expuesto:




























figura 18

El centro de la elipse es el vrtice j-simo de la red plana cuyas coordenadas ajustadas
son (X, Y)
j
. La elipse de error debe interpretarse como una regin de confianza dentro
de la cual se encuentran (a un cierto nivel de probabilidad) las coordenadas verdaderas o
exactas del punto P
j
. Puesto que la forma y tamao de la elipse de error dependen de la
geometra de la red a travs de la matriz de diseo A, la interpretacin se enriquece si la
red y sus elipses se muestran grficamente.

El error de posicionamiento p de un vrtice, punto o estacin P
j
, est directamente
relacionado con la elipse de error tal como lo muestra la figura 19.
y y
0
y
x
x
0

X
z1
z2
x
y ~ (0, y )
F recuencia
marginal de y
2
x ~ (0, x )
Frecuencia
marginal de x
2
A
B
Y
(x;y)
137



















figura 19

Para determinar p en una direccin dada a partir de la direccin del semieje mayor A,
se traza una normal a dicha direccin que sea tangente a la elipse de error en el punto
P
0
. El error p en la direccin queda definido por el segmento de recta que une el
centro de la elipse (X, Y)
j
con el punto de interseccin de la direccin con la tangente
a la elipse en P
0
. Se puede demostrar que p est dado por:


2 2 2 2 2
cos sen B A p + = (123)

El error de posicionamiento p es el error estndar en la direccin . El extremo del
segmento p, para 0 2, describe la curva de desviacin estndar o curva podaria,
figura 19.
Segn (123), p
2
es una funcin de ; es decir: p
2
= f (). La condicin necesaria para la
existencia de mximo o mnimo de la funcin f es: f () = 0, entonces:


0 ) ( cos 2 ) ( '
0 cos 2 cos 2 ) ( '
2 2
2 2
= =
= + =
A B sen f
sen B sen A f




Puesto que B
2
- A
2
0 f() se anula en = 0 y = /2. El criterio de la derivada
segunda decide la existencia de mximo o mnimo:

) )(cos ( 2 ) ( "
2 2 2 2
sen A B f =

puesto que B
2
-A
2
< 0:
si = 0 f() < 0 en = 0 existe mximo y p = A.
s = /2 f() >0 en = /2 existe mnimo y p = B.

El mximo valor de p es igual a A.
Y
X
Y
X

(X j;Y j)
A
B
p
p 0
C u rva P o d a ria
138
El mnimo valor de p es igual a B.

El factor de magnificacin por el que deben multiplicarse los semiejes A y B de la
elipse estndar para obtener elipses correspondientes a otros niveles de probabilidad,
depende no solamente del nivel de probabilidad seleccionado sino tambin de la
redundancia de la red. Intuitivamente esto tiene sentido puesto que al crecer el nmero
de observaciones n, los errores de posicionamiento decrecen y, en consecuencia, se
obtienen elipses de menor tamao. La justificacin matemtica de este concepto, basada
en la distribucin F de Fisher-Snedecor, esta ms all del alcance de este curso. El
factor de multiplicacin o magnificacin se muestra en la siguiente tabla en funcin de
la redundancia y el nivel de probabilidad seleccionado (Leick, A., 1995):

probabilidad: 1-

95% 98% 99%
1 20.00 50.00 100.00
2 6.16 9.90 14.10
3 4.37 6.14 7.85
4 3.73 4.93 6.00
5 3.40 4.35 5.15
6 3.21 4.01 4.67
8 2.99 3.64 4.16
10 2.86 3.44 3.89
12 2.79 3.32 3.72
15 2.71 3.20 3.57
20 2.64 3.09 3.42
30 2.58 2.99 3.28
50 2.52 2.91 3.18
100 2.49 2.85 3.11

2.45 2.80 3.03


Propagacin de los errores de las observaciones en el caso de una red altimtrica:

En el caso de una red plana, los parmetros o coordenadas planas X, Y varan en forma
conjunta en una regin bidimensional. Si se trata de una red altimtrica, los parmetros
o cotas varan en una sola direccin, la vertical. Interesa entonces conocer la
propagacin de los errores de las observaciones (desniveles) a las cotas ajustadas. Del j-
simo elemento de la matriz varianza-covarianza, se obtiene el error estndar de la j-
sima cota ajustada:


jj i Z
q
0
= (124)

Fiabilidad:

La teora aqu delineada sigue a Baarda (Leick, A. 1995; Chueca Pazos, M. 2000) y est
relacionada con la estadstica del ajuste.
La configuracin apropiada de las figuras geomtricas constituyentes de la red, la
pequeez de los residuos y varianzas, la compatibilidad estadstica de los estimadores
de la varianza de la observacin de peso 1 a priori y a posteriori, la compatibilidad de la
139
red libre y la sometida a constreimientos externos y la buena configuracin de las
elipses de error, entre otras, son pruebas de buena calidad de una red. Sin embargo
puede no ser suficiente. As, un error grosero introducido en una observacin, influye en
todos los residuos de la red y desequilibra su calidad. Se llama fiabilidad interna de la
red a su capacidad, expresada numricamente, de control general y especifico de las
observaciones junto con la deteccin y particularizacin de posibles errores groseros.
Del mismo modo, es necesario relacionar los posibles errores no eliminados o
remanentes de la red con su influencia en los parmetros ajustados. Se llama entonces
fiabilidad externa a la respuesta y sensibilidad de la red ante un nivel de error cualquiera
en sus observaciones.
Recordando las expresiones de las matrices varianza-covarianza del vector L
b
de las
observaciones y del vector X de las incgnitas:


b L b L
Q P
2
0
1 2
0
= =

(125)


X X
Q N
2
0
2
0
= =
+
(126)

donde Q
Lb
= P
-1
y Q
X
= N
+
son las matrices cofactor de los vectores L
b
y X,
respectivamente. Puede hallarse una expresin para la matriz cofactor del vector de los
residuos V:

V = AX L

V = A N
+
A
T
PL L

V = (AN
+
A
T
P I) L

V = (AN
+
A
T
P
-1
) PL (127)

De la ley general de la propagacin de la varianza covarianza:


V
= (AN
+
A
T
- P
1
) P
L
[(AN
+
A
T
P
-1
) P]
T
(128)


V
=
2
0
(AN
+
A
T
- P
1
) P P
-1
P (AN
+
A
T
P
-1
)


V
=
2
0
(AN
+
A
T
- P
1
) (PAN
+
A
T
I)


V
=
2
0
[AN
+
(A
T
PA) N
+
A
T
- AN
+
A
T
-AN
+
A
T
+ P
-1
]


V
=
2
0
[A (N
+
NN
+
) A
T
- AN
+
A
T
-AN
+
A
T
+ P
-1
]


V
=
2
0
[AN
+
A
T
- AN
+
A
T
-AN
+
A
T
+ P
-1
]



V
=
2
0
[-AN
+
A
T
+ P
-1
] (129)

140
La matriz cofactor del vector de los residuos es:

Q
V
= P
-1
AN
+
A
T
(130)

El vector de las observaciones ajustadas es:

L
a
= L
b
+ V = L
b
+AX - L

L
a
= L
b
+ AN
+
A
T
PL L

L
a
= L
b
+ AN
+
A
T
PL (L
b
L)

L
a
= AN
+
A
T
PL + L (131)

La matriz varianza-covarianza de L
a
es:


La
= (AN
+
A
T
P)
L
(AN
+
A
T
P)
T
(132)

La
=
2
0
AN
+
A
T
PP
-1
PAN
+
A
T


La
=
2
0
AN
+
(A
T
PA) N
+
A
T


La
=
2
0
A (N
+
NN
+
) A
T


La
=
2
0
A N
+
A
T
(133)

La matriz cofactor del vector L
a
es:

Q
La
= AN
+
A
T
(134)
En resumen:

Lb
=
2
0
Q
Lb
=
2
0
P
-1


X
=
2
0
Q
X
=
2
0
N
+


Lb
=
2
0
Q
V
=
2
0
(P
-1
AN
+
A
T
)

La
=
2
0
Q
La
=
2
0
AN
+
A
T


Multiplicando a derecha ambos miembros de (130):

Q
V
P = I AN
+
A
T
P (135)

Puede demostrarse que:

tr(Q
V
P) = n R (A) =

Denotando por r
i
a los elementos de la diagonal principal de Q
V
P:

tr(Q
V
P) =

=
=
n
i
i
r
1
n R (A) = (136)

141
donde es la redundancia de la red y r
i
es el nmero de redundancia de la i-sima
observacin. El nmero de redundancia r
i
, representa la contribucin de la i-sima
observacin a la redundancia de la red.
De la (136):
r
i
= q
i
p
i
(137)

donde q
i
, p
i
son los elementos de orden i de la diagonal principal de las matrices Q
V
y P.



De las (130) y (134):

P
-1
= Q
V
+ AN
+
A
T
= Q
V
+ Q
La
(138)

Los elementos de la diagonal principal de Q
V
son todos mayores que cero por tratarse
de una matriz cofactor, lo mismo sucede con los elementos diagonales de Q
La
y
teniendo en cuenta la (138):

0 q
i

i
p
1
(139)

Multiplicando por p
i
ambos miembros de (139):

0 q
i
p
i
1

0 r
i
1 (140)

La redundancia de una observacin cualquiera es siempre positiva y menor que la
unidad, siendo la suma de todas ellas la redundancia general de la red.
De la (138):

Q
La
= P
-1
Q
V
(141)

Si los nmeros de redundancia son cercanos a la unidad, se tendr:

r
i
1 (142)

q
i
p
i
1 (143)


i
i
p
q
1
(144)

y en (141), con q
ai
= elemento de orden i de la diagonal principal de Q
La
:

q
ai
= p
i
-1
q
i
0 (145)

0
2
0
2
=
i a i a
q (146)

Se infiere que si la redundancia del observable se acerca a la unidad, la varianza del
observable ajustado,
2

i a
, tender a cero. Del mismo modo:
142


i i
q p
2
0
1 2
0
=

(147)

El ajuste da lugar a varianzas pequeas en las observaciones ajustadas. Las
observaciones ajustadas son claramente ms precisas que las iniciales, y se concluye la
ventaja de disponer de observaciones con redundancias cercanas a la unidad, que deben
buscarse y preferirse.
Al contrario, si los nmeros de redundancia son cercanos a cero:

r
i
0 (148)

q
i
r
i
0 (149)

q
i
0 (150)

Las varianzas de los residuos son:

0
2
0

i
q (151)

Las varianzas de las observaciones ajustadas, de la (145), son:


1 2
0
2
0

i i a
p q (152)

Si las expresiones anteriores se extienden y cumplen a lo largo de la red, las varianzas
de los residuos resultarn muy pequeas y las varianzas de los observables ajustados no
variaran sensiblemente con respecto a las iniciales. Se habr logrado muy escasa ventaja
en precisin al practicar el ajuste y en consecuencia, debern evitarse las observaciones
de redundancias cercanas a cero.
De la (125):


1 2
0


= P
b L


siendo el peso de la i-sima observacin el elemento del mismo orden p
i
de la diagonal
principal de la matriz P, que valdr:


2
2
0
i
i
p

= (153)

cociente de las varianzas a priori de la observacin de peso 1 y de la observacin i-
sima.
Pero siendo:
) (
1 2
0
2
0
T
V V
A AN P Q
+
= =

escribimos la desviacin estndar a posteriori del residuo v
i
:


i i v
q
0
= (154)

143
de donde:


2
0
2
0 0


i
i
i
i
i v
r
p
r
= =


i
i
i v
r
0
0

= (155)

Si
0
es estadsticamente igual a
0
(aceptacin de H
0
en la prueba chi-cuadrado) y r
i

1, se tiene de la (155):


i i v
(156)

es decir; la desviacin estndar estimada de un residuo v
i
es igual, en orden de
magnitud, a la desviacin estndar de la observacin l
bi
correspondiente.
Con lo que se confirma nuevamente a las redundancias r
i
particulares de las
observaciones como un buen ndice de calidad del ajuste, que ser tanto mejor cuanto
ms se aproximen dichos valores a la unidad.
En primera instancia, puede expresarse la redundancia media del ajuste:


n
A n
n
r
M
) (
= =

(157)

con la misma interpretacin para juzgar al conjunto de la red.

Control de errores groseros:

El control de errores groseros en el ajuste requiere de la formulacin de las siguientes
hiptesis:

H
0
: Las observaciones no contienen errores groseros.

H
1
: - Las observaciones contienen un error grosero.
- Est localizado en la i-sima observacin.
- Su magnitud es
i
.

En el vector de observaciones L
b
, la i-sima observacin es errnea, l
bi
+
i
:

l
bi
+
i
f
i
(X) = L
i
+
i
(158)

La i-sima componente del vector L es: L
i
+
i
.
De las (127) y (130):

V = -Q
V
PL (159)

144
V = -Q
V
P

+
n
i i
L
L
L
L
M
M
2
1
= -Q
V
P

i
n
i
L
L
L
L
0
1
0
0
2
1
M
M
M
M


Haciendo e
i
= [0,0,, 1,,0]
T
:

V = - Q
V
P (L e
i

i
) = - Q
V
PL + Q
V
Pe
i

i
(160)

Bajo la hiptesis alternativa H
1
, el vector de residuos se expresa por:

V/
H1
= Q
V
Pe
i

i
Q
V
PL

V/
H1
= Q
V
Pe
i

i
+ V (161)

La esperanza matemtica del vector V, bajo la hiptesis H
1
, es:

E (V/
H1
) = Q
V
Pe
i

i
(162)

puesto que , por hiptesis, E (V) = 0.

La matriz varianza-covarianza, bajo la hiptesis H
1
, es:


V/H1
=
0
2
Q
V
(163)

en virtud de que Q
V
Pe
i

i
es constante.
Entonces V/
H1
es una variable estocstica conjunta que distribuye normal con media Q
V
Pe
i

i
y varianza-covarianza
0
2
Q
V
; es decir:

V/
H1
N (Q
V
Pe
i

i
,
0
2
Q
V
) (164)

Los residuos individuales v
i
son a su vez, variables estocsticas que distribuyen normal
con media q
i
p
i

i
y varianza
0
2
q
i
, es decir:

v
i
/
H1
= n (q
i
p
i

i
,
0
2
q
i
) (165)

Estandarizando la variable v
i
/
H1
:


i v
H
H
v

) / (
/
1 1
1 1
= (166)

y teniendo en cuenta que
i i v
q
0
= , podemos escribir:

145

i
H i
H
q
v
0
1
1 1
) / (
/

= ) 1 , (
0 i
i i i
q
p q
n


(167)

Multiplicando y dividiendo la esperanza de
1
/
H1
por
i
q :


0
1 1
) / (

i i i
H
p q
E

= (168)

Entonces:

i v
H i
H
v

) / (
/
1
1 1
= n (
0

i i i
p q
, 1) (169)

Bajo la hiptesis nula H
0
:

H
0
:
i v
H i
v

) / (
0
0
= n (0,1) (170)
El parmetro de no-centralidad, traslacin o desplazamiento; es decir, la media de una
distribucin gaussiana no-central, se denota por
i
y es:


0

i
i
i
i
q p
= (171)

Puesto que:
2
2
0
i
i
p

=


i i
p =
0
(172)

Reemplazando (172) en (171):


i i
i i i
i
p
q p


= (173)

Multiplicando y dividiendo el segundo miembro de (173) por
i
p :


i
i i i
i i
i i i i
i
q p
p
q p p

=

Puesto que r
i
= p
i
q
i
, el parmetro de traslacin es:


i
i i
i
r


= (174)

146
y el error grosero
i
:


i
i i
i
r

= (175)

La expresin (175) muestra una vez ms la conveniencia de lograr redundancias
elevadas, cercanas a la unidad si es posible, a efectos de minimizar
i
para el parmetro
de traslacin
i
de la i-sima observacin.
Ningn
i
ni
i
ser conocido en su verdadera dimensin. Es preciso entonces, aplicar
el mtodo estadstico usual de prueba de contraste de errores tipo I y tipo II.
Ser necesario establecer el nivel de significacin de rechazo de la hiptesis nula.
Generalmente se establece un valor muy pequeo para asegurar un mnimo de rechazo
de observaciones aceptables o errores de tipo I (rechazar H
0
cuando debe ser aceptada).
La probabilidad de cometer un error de tipo I bajo la hiptesis nula, puede expresarse en
la forma:

= = =
2
2
2
0
) 1 ( 1 ) 1 , 0 ( 1 ) (


t
t
dt n t P (176)

obtenindose
2

t de las tablas de la distribucin normal.


El tratamiento del error de tipo II requiere establecer la potencia del test o
probabilidad de aceptacin de la hiptesis nula H
0
, cuando debe ser rechazada.
La probabilidad de cometer un error de tipo II ser, por tanto, igual a 1 . Su
expresin es:


= =
2
0
2
1
1 ) 1 , ( 1 ) (


t
dt n t P (177)

Para fijar ideas y segn es de general aplicacin, establezcamos:

= 0.001
= 0.90

En la figura 20 se representa la aplicacin de las expresiones (176) y (177):













147















figura 20

En las tablas de distribucin normal entramos con el argumento:

4995 . 0 0005 . 0 5 . 0
2
1
5 . 0 = =

obtenindose:
t = 3.29

Para que el parmetro de desplazamiento
0
de lugar a = 0.90, ser preciso entrar con
el argumento 0.90 0.50 = 0.40, obteniendo t = 1.28.
Con lo que resulta inmediatamente:


0
= 3.29 + 1.28 = 4.57

A partir de la (165) se obtiene el llamado -test debido a Baarda, ampliamente utilizado
en la exploracin de posibles errores groseros cometidos en el ajuste de redes. La (167)
es el test de Baarda bajo la hiptesis alternativa H
1,
que conduce a contrastar una
distribucin normal con un parmetro de traslacin que es proporcional al error grosero

i
y sirve, por tanto, para controlarlo. La interpretacin completa del test de Baarda con
parmetros = 0.001 y = 0.90 es inmediata:
- Un residuo estandarizado que cumpla: 29 . 3
0
=
i v
i
i
v

supone el rechazo de la
hipotesis nula con un nivel de significacin de = 0.001. Es decir hay solo 1 por
1000 de probabilidad de que se rechace la observacion y sea correcta. Con
fiabilidad 0.999 contendra un error grosero.

- Con el criterio anterior, cualquier error grosero que cumpla:


i
i
i
i
i
r r

57 . 4
0
0
= (178)

= 0.90
1/2 = 0.0005
= 4.57
3.29 1.28
148
ser rechazado con una fiabilidad de = 0.90. Podrn deslizarse, por tanto, hasta un
10% de errores iguales o superiores al indicado y ser preciso admitir como norma
general los inferiores al valor establecido en (178).

Siendo conocidos los valores de
i
y r
i
de cada observacin puede, pues, analizarse
el ajuste suprimiendo sucesivamente y en orden descendente aquellos que excedan
el valor establecido para
0i
, realizando un nuevo ajuste despus de cada supresin,
hasta la aceptacin en bloque de todas las observaciones remanentes.
Especialmente importante es contrastar la adecuacin de los pesos y errores a priori
imputados a las observaciones. Si la precisin supuesta a priori resulta ser muy
inferior a la lograda, el nmero de observaciones rechazadas ser elevado y la
descripcin de la red ser irreal. La aceptacin de la prueba chi-cuadrado para la
varianza a posteriori, es una buena indicacin de la adecuacin de los pesos y
errores a priori de las observaciones.
La eleccin del parmetro de significacin y la potencia del test tampoco es
arbitraria, mereciendo la pena frecuentemente realizar ms de una prueba. Puede
empezarse con los valores presentados ( = 0.001 y = 0.90) y, si el resultado, por
cualquier razn no es satisfactorio, ensayar alguna pareja de valores distintos, cuyo
clculo es sencillo. La siguiente tabla ofrece pares y junto al parmetro de
traslacin asociado (Chueca Pazos, 2000):


0

0.050 0.80 2.80
0.025 0.80 3.10
0.001 0.80 4.12
0.050 0.90 3.24
0.025 0.90 3.52
0.001 0.90 4.57

Fiabilidad interna: Segn se vio, se entiende por fiabilidad interna de la red, su
capacidad de deteccin y control de posibles errores groseros en las observaciones.
La expresin (178) es utilizable en cuanto el modelo funcional y el estocstico sean
conocidos. A travs de ella es posible determinar la sensibilidad de la red ante los
errores groseros y, por tanto, tomar decisiones lgicas sobre su proyecto y
observacin, modificando en cuanto sea necesario y siempre dentro de las
posibilidades del terreno su configuracin inicial hasta su optimizacin. En
consecuencia el estudio de la fiabilidad interna de la red es til no solamente para
conocer la calidad del ajuste realizado, sino para proyectarlo previamente.
As, tanto en simulacin y proyecto como en control de redes, el primer parmetro
de control de fiabilidad interna, presente en todas las expresiones deducidas, es el
nmero de redundancia r
i
de cada observable.

Se dice que un observable est:

- perfectamente controlado si: r
i
= 1
- bien controlado si : 0.4 r
i
1
- dbilmente controlado si : 0.1 r
i
0.4
- mal controlado si : 0 r
i
0.1
- no est controlado si : r
i
= 0

149
Es til el estudio de homogeneidad de una red comparando las redundancias en
distintas zonas con la redundancia media (157). Las zonas de redundancia promedio
insatisfactorias sugieren su densificacin mediante un suficiente incremento de
observaciones. Se utiliza a este efecto el parmetro:


i
i IN
r
0

= (179)

obtenido directamente de la expresin (178). Independientemente de
i
, su variacin
relativa en cuanto menor sea, califica ms favorablemente la homogeneidad de la
red. Se prefieren valores absolutos pequeos que significan altas redundancias (r
i

1). La fiabilidad interna de una red queda, por tanto, definida por los siguientes
elementos:

- Los nmeros de redundancia, tanto en cada observacin como la redundancia
media.
- Los parmetros
INi
de homogeneidad de la red.
- Los valores
0i
deducidos de (178), mnimo error detectable por el test con
potencia y el nivel de significacin, o ndices de sensibilidad de la red.

Fiabilidad externa: Una buena y homognea fiabilidad interna no garantiza
automticamente parmetros fiables. El objetivo de la fiabilidad externa es
establecer la influencia de los errores deslizados o no detectados en las
observaciones sobre los valores ajustados de los parmetros. Los parmetros
estimados en presencia de un error groseros son, para el modelo de las ecuaciones
de observacin:

X = N
+
A
T
P (L - e
i
) (180)

El efecto de un error grosero en la i-sima observacin es:

X = -N
+
A
T
Pe
i

i
(181)

Las variaciones X se denominan fiabilidad local externa. El error grosero
i

afecta, pues, a todos los parmetros. El impacto (influencia) del error mnimo detectable
en los parmetros a travs del -test con potencia y nivel de significacin ,
ocasionado por un error grosero
i
localizado en la i-sima observacin, es:

X
0i
= N
+
A
T
Pe
i

0i
(182)

Puesto que hay n observaciones, pueden computarse n vectores X
0i
, mostrando el
impacto de cada error mnimo detectable
0i
sobre los parmetros.
Baarda sugiri la siguiente expresin alternativa:


2
0
0 0 2
0

i
T
i
i
X N X
= (183)

Sustituyendo la expresin (182) en la (183):
150


2
0
0 0 2
0
) ( ) (

i i
T T
i i
T
i
Pe A N N Pe A N
=
+ +




2
0
0 0 2
0
) (

i i
T T
i i
i
Pe A NN N PA e
=
+ +


Puesto que N
+
NN
+
= N
+
:


2
0
0 0 2
0

i i
T T
i i
i
Pe A N PA e
=
+
(184)

De la (130), AN
+
A
T
= I - Q
V
P, entonces:

i i V
T
i i i
e P Q I P e
0 0
2
0
2
0
) (
1
=

(185)

) (
1
2
0
2
0
2
0 i V
T
i i
T
i i i
Pe PQ e Pe e =

) (
1
2 2
0
2
0
i i i i
q p p =



) 1 (
1
2
0
2
0
2
0 i i i i
r p =



Y teniendo en cuenta la expresin (178):


2
0
2 2
0
2
0
1
) 1 (


i
i i i i
r
r p = (186)

De la definicin de peso,
2
2
0
i
i
p

= , sustituyendo en (186):


i
i
i i
i i i
r
r
r
r
1
) 1 (
1
) 1 (
2
0
2
0
2
2
0
2 2
0
2
0
= =



Llamamos
EXi
a la cantidad
0i
, entonces:


i
i
i EX
r
r
=
1
0
(187)

es el parmetro de homogeneidad de la fiabilidad externa, con una interpretacin
paralela a la de
INi
.

La fiabilidad externa de la red quedar definida por los siguientes elementos:

151
- Los vectores X
0i
.
- Los parmetros
EXi
de homogeneidad de la red.

con anloga discusin e interpretacin a la antes efectuada.

Sntesis:

Los elementos esenciales del ajuste mnimos cuadrados de una red topogrfica son:

i) el modelo funcional
ii) el modelo estocstico
iii) fiabilidad

El ajuste libre produce elipses de error libres de la influencia de los constreimientos
externos (generalmente los puntos fijos). As, las elipses reflejan fielmente los errores
de posicionamiento de los puntos de la red ajustada.
Si se supera exitosamente la prueba chi-cuadrado, puede asegurarse al 95% de
confianza que no existen errores groseros detectables en los observables. En caso
contrario, sern detectados e identificados en la etapa de fiabilidad interna, mediante el
-test de Baarda y umbrales definidos por los mnimos errores detectables en cada
observacin. En la siguiente etapa, los vectores de fiabilidad externa permitirn
determinar las influencias de los errores no detectados por el test, sobre los parmetros
ajustados. Durante este proceso, juegan un papel fundamental los nmeros de
redundancia de los observables, puesto que tanto los parmetros de fiabilidad interna
como los de fiabilidad externa dependen de aquellos nmeros. El ajuste libre permite
hacer un verdadero control de calidad de una red topogrfica.
El ajuste libre exitoso produce tambin coordenadas ajustadas, cuya geometra deber
integrarse a la geometra de los puntos fijos mediante el ajuste vinculado. As, una vez
ejecutado exitosamente el ajuste vinculado, las coordenadas de todos los puntos de la
red estarn referidas al mismo sistema de coordenadas de los puntos fijos o
constreimientos externos.


-----------------------
















152
TRABAJO PRCTICO 3: ANALISIS DE REDES TOPOGRAFICAS

E1: Dada la red plana de la figura siguiente:














Datos:

Coordenadas aproximadas



ngulos: error estndar de una direccin horizontal: " 5 =
dh

ngulo codif. observacin
1 2-1-4 24 37 32
2 4-1-3 29 58 44
3 1-3-4 29 03 24
4 4-3-2 26 33 59
5 3-2-4 36 52 05
6 4-2-1 32 54 30
7 2-4-3 116 33 46
8 3-4-1 120 57 58
9 1-4-2 122 28 12

Distancias: error estndar en distancias: ) ( 5 5 mm D ppm mm
D
+ =

dist. codif. observacin(m)
1 1-0-2 320.163
2 2-0-3 316.235
3 3-0-1 364.012
4 1-0-4 206.161
5 2-0-4 158.120
6 3-0-4 212.138

Punto X(m) Y(m)
1 220 95
2 410 360
3 90 440
4 240 320
X
0
1
2
3
4
Y
500
500
153
i) Calcular la matriz de los pesos para el ajuste libre.
ii) Escribir la ecuacin de observacin para el ngulo 2.
iii) Escribir la ecuacin de observacin para la distancia 3.
iv) Calcular las componentes del vector L correspondientes al ngulo 2 y a la
distancia 3.

E2: Ajustar la red libre del ejercicio 1 con la aplicacin MATLAB, REDPLN_ALV1:

E3: Ajustar la red plana del ejercicio 1, vinculada a los puntos 1 y 4 considerados como
puntos fijos (utilice la aplicacin MATLAB, REDPLN_ALV1).

punto X
F
(m)
XF
(m) Y
F
(m)
YF
(m)
1 (PF) 217.349 0.0014 101.523 0.0024
4 (PF) 252.463 0.0014 304.672 0.0014

Utilice la aplicacin MATLAB, REDPLN_ALV1.

E4: Sea la red altimtrica de la figura del E1, que se ha medido con nivelacion
geomtrica.

Datos: nivelacin geomtrica: error estndar de un desnivel: ) (
10
km L
km
mm
h
=
desniv. codif. observ.(m) dist.(m)
1 1-2 10.180 320
2 2-3 5.209 316
3 1-3 15.395 364
4 1-4 18.504 206
5 2-4 8.322 158
6 3-4 3.105 212

i) Plantee las ecuaciones de observacin para el ajuste libre y calcule la matriz
de los pesos.
ii) Ejecute el ajuste libre con la aplicacin MATLAB, REDALT_A.
iii) Ejecute el ajuste vinculado al punto1 donde la cota fija es Z
1
= 110.341 m y
el error estndar de la cota fija es
Z1
= 0.002 m. Utilice la aplicacin
MATLAB, REDALT_A.

E5: Sea la red plana de la figura:











Y
X
0
1
2
3
4
5
7
6
154
error estndar de una direccin horizontal:
dh
= 2
error estndar en distancia :
D
= 5mm +5 ppm D(mm)

Datos:

Coordenadas aproximadas:
punto X(m) Y(m)
1 15000 5000
2 16000 17000
3 3000 20000
4 8000 13000
5 13000 11000
6 7500 2000
7 2000 6000

ngulos
ngulo codif. observacin
1 3-4-7 105 36 26
2 4-6-7 55 25 24
3 1-6-5 35 46 49
4 4-2-5 37 01 31
5 3-2-4 39 02 30
6 1-5-2 135 15 52
7 4-7-3 36 14 14
8 5-3-2 29 15 59
9 2-1-5 23 37 34
10 4-1-7 42 48 06
11 6-4-1 44 08 42
12 1-7-5 27 50 50

Distancias
dist. codif. observac.(m)
1 1-0-6 8109.287
2 1-0-2 12061.786
3 2-0-3 13549.871
4 3-0-7 14025.355
5 7-0-6 6915.454
6 1-0-7 13153.408
7 1-0-4 10683.685
8 1-0-5 6171.609
9 5-0-2 6868.418
10 4-0-2 9402.453
11 5-0-3 13636.349
12 5-0-4 5697.620
13 7-0-5 12210.119
14 6-0-4 10890.332
15 7-0-4 8996.876
16 4-0-3 8608.073
17 6-0-5 10529.538
155
i) ejecutar el ajuste libre.
ii) Si se modifican las coordenadas aproximadas sin deformar
significativamente la red cambian los resultados del ajuste libre?
iii) Qu utilidad tiene la ejecucin previa del ajuste libre?
iv) Seleccione las coordenadas de dos puntos cualesquiera del ajuste libre,
considrelas como coordenadas de puntos fijos y ejecute el correspondiente
ajuste vinculado. Si se seleccionan otros puntos fijos, qu sucede ahora con
el ajuste vinculado?

E6: Sea la red altimtrica de nivelacin geomtrica de la figura:


















Datos:
Cotas aproximadas error estndar de un desnivel: ) (
10
km L
km
mm
h
=
Punto Z(m)
1 100
2 115
3 95
4 113
5 120

desnivel codif. observacin(m) distancia(m)
1 1-2 15.174 1497
2 1-5 20.143 993
3 1-4 12.750 1450
4 2-5 5.001 1020
5 4-5 7.413 989
6 3-2 20.152 1398
7 3-5 25.121 1107
8 3-4 17.723 1520


1 2
3
4
5
156
i) el ajuste libre pasa la prueba chi-cuadrado al 95% de confianza?
ii) Obtener cotas compensadas y sus errores estndar.
iii) Obtener desniveles ajustados y verificacin de cierre malla por malla.
iv) Ajuste vinculado: seleccione uno o ms puntos altimtricos fijos. Asigne
cotas fijas y sus errores estndar.

----------------------------











































157












TEMA 4

DISEO, SIMULACION Y AJUSTE
DE
REDES TOPOGRAFICAS






























158
Diseo y simulacin de redes topogrficas:

Un ejemplo muy sencillo servir como introduccin al diseo de redes planas. En la
figura 1, se densificar una red por un nuevo punto 4.






















figura 1

Coordenadas aproximadas

punto X(m) Y(m)
PF 1 31761 26790
PF 2 12991 25882
PF 3 17626 13478
4 20000 20000

Se planifica medir tres distancias s
1
, s
2
y s
3
desde los puntos fijos 1, 2 y 3
respectivamente. La postulacin de precisin en el punto 4 esta dada por un circulo de
radio igual a 1 centmetro, que deber contener a la elipse de error estndar con que
precisin deber medirse las distancias s
1
, s
2
y s
3
?
Esta postulacin de precisin esta representada por la matriz identidad como la matriz
de criterio:


1 0
0 1
X
E

= =


(1)

y la desviacin estndar de peso 1,
0
= 1 cm. La relacin entre las ecuaciones normales
y la matriz de criterio como matriz varianza-covarianza ideal es:

Y
X
13000 20000 30000
11000
20000
30000
3
4
2
1
159

1 T
X
N A PA E

= = = (2)

Con X = [d
X
, d
Y
]
T
como el vector de parmetros. La matriz de diseo A es:


14 14
24 24
34 34
cos 0.891 0.454
cos 0.588 0.809
cos 0.707 0.707
sen
A sen
sen





= =



(3)

y la matriz de los pesos de las observaciones:


1
2
3
p
P p
p


=



(4)

de la cual asumimos que las observaciones son no correlacionadas. La (2) puede
escribirse:

1
1
2
3
0.891 0.454
0.891 0.588 0.707 1 0
0.588 0.809
0.454 0.809 0.70 0 1
0.707 0.707
T
X
p
A PA p E
p




= = = =






es decir:


1 2 3 1 2 3
1 2 3 1 2 3
0.794 0.346 0.5 0.404 0.476 0.5 1 0
0.404 0.476 0.5 0.206 0.654 0.5 0 1
p p p p p p
p p p p p p
+ + +
=

+ + +



Esta ecuacin matricial es lineal en los elementos de P. Se obtienen cuatro ecuaciones
lineales, de las cuales dos son idnticas debido a la simetra de las ecuaciones normal y
de criterio. Las restantes tres ecuaciones son:


1 2 3
1 2 3
1 2 3
0.794 0.346 0.5 1
0.404 0.476 0.5 0
0.206 0.654 0.5 1
p p p
p p p
p p p
+ + =
+ =
+ + =
(5)

cuya solucin (pesos ptimos), p
1
= 0.511, p
2
= 0.974 y p
3
= 0.515 es la solucin de la
(2).
Se dispone de un distancimetro cuya formula para el error de una observacin (error
estndar) es:

5 1 ( )
S
mm ppmS mm = + (6)

entonces se pueden medir las distancias s
1
, s
2
y s
3
con precisiones:


s1
= 1.86 cm,
s2
= 1.42 cm,
s3
= 1.19 cm

160
Asumiendo que observaciones repetidas no son correlacionadas, la desviacin estndar
de la media aritmtica es:


S
S
n

= (7)

su peso es:


2 2 2
0 0 0
2 2 2 S
S S
S
p n
n

= = =



(8)

con
0
= 1 cm, el nmero necesario de repeticiones n con respecto a los pesos ptimos,
es:


2 2 2
1 1 1 1 1 1
2 2 2
2 2 2 2 2 2
2 2 2
3 3 3 3 3 3
0.511(1.86) 1.76 2
0.974(1.42) 1.96 2
0.515(1.19) 0.73 1
S S S
S S S
S S S
n p p n
n p p n
n p p n



= = = = > =
= = = = > =
= = = = > =


Las repeticiones n
1
= 2, n
2
= 2 y n
3
= 1, conducen a los errores estndar de las medias
aritmticas:


1
1
1
2
2
2
3
3
3
1.86
1.32
2
1.42
1.00
2
1.19
1.19
1
S
S
S
S
S
S
cm
n
cm
n
cm
n

= = =
= = =
= = =


y sus pesos:


( )
( )
( )
2 2
0
1 2
1
2 2
0
2 2
2
2 2
0
3 2
3
1
0.57
1.32
1
1.00
1.00
1
0.71
1.19
S
S
S
S
S
S
p
p
p

= = =
= = =
= = =


La matriz normal es ahora:

161
0.57 0.891 0.454
0.891 0.588 0.707
1.00 0.588 0.809
0.454 0.809 0.707
0.71 0.707 0.707
T
N A PA



= =








es decir:


1.153 0.110
0.110 0.127
N

=




La matriz varianza-covarianza de los parmetros es ahora:


2 1
0
1.127 0.110 0.88 0.08
1
0.110 1.153 0.08 0.90 1.2873
X X
adj N
Q N
N



= = = = =





La ecuacin caracterstica de N
-1
es:


2
1.78 0.7856 0 + =
cuya solucin
1
= 0.97,
2
= 0.81conduce a los semiejes mayor y menor de la elipse
estndar:


1 2
0.98 0.90 A cm B cm = = = =

El rumbo del semieje mayor A es.


1 2( 0.08)
41.44
2 0.88 0.90
arctg

= =



La elipse de error estndar de nuestro diseo esta completamente contenida dentro de
crculo de error postulado, de radio igual a 1 cm.

Diseo por computadora:

Existen dos mtodos que pueden usarse para resolver los problemas de diseo,
denominados el mtodo prueba y error y el mtodo analtico. El mtodo prueba y
error se lleva a cabo por simulacin en computadora y conduce a un diseo
satisfactorio, mientras que el mtodo analtico produce la red de diseo ptimo. Aqu
delinearemos solamente el mtodoprueba y error por simulacin en computadora que
si bien conduce a un diseo satisfactorio, la red ptima en sentido matemtico, puede
lograrse solamente con mtodos analticos.
El proceso prueba y error puede sintetizarse en los siguientes pasos (Shanlong
Kuang,1996):

i) Especificar los criterios de precisin y fiabilidad (elipses de error y nmero
de redundancias).
ii) Seleccionar el esquema de observacin (estaciones, observaciones y su
precisin)
162
iii) Computar los valores de las cantidades especificadas como criterios de
precisin y fiabilidad
iv) Si los valores calculados no estn prximos a aquellos especificados en i),
modificar el esquema de observacin agregando o removiendo
observaciones, o incrementando o disminuyendo los pesos de las
observaciones. Regresar a iii).
v) Computar el costo de la red y recomenzar en ii) con un esquema
completamente diferente (por ejemplo trilateracin en lugar de
triangulacin). Detenerse cuando se haya alcanzado una red satisfactoria, es
decir, mnimo costo y precisin aceptable.

La principal ventaja del mtodo prueba y error consiste en que cualquier criterio
arbitrario de precisin y fiabilidad, puede usarse para lograr un diseo satisfactorio.
No es necesario encuadrar estos criterios en formas matemticas complejas,
indispensables si se utilizan mtodos analticos.

Volvamos al ejemplo sencillo que se utiliz como introduccin al diseo de redes
planas. Se utiliz la aplicacin MATLAB, REDPLN_D. A las coordenadas X, Y de
los puntos 1, 2 y 3 de la red existente, se les asign errores pequeos (
X
=
Y
=
0.001 m) y gran peso (p
X
= p
Y
= 1000000) a fin de considerarlos puntos fijos.
Se especifica la elipse de error estndar en el punto 4 con semieje mayor A < 1 cm y
se dispone de un distancimetro cuya frmula para el error de una observacin
(error estndar) es:


S
= 5 mm+ 1 ppm S (mm)

Para el esquema de la figura 1, se logra la elipse de error estndar en el punto 4 con
los siguientes parmetros:

punto A(m) B(m) excentricidad rea (cm2)
4 -17.27 0.0134 0.010 0.3975 4.38

La elipse estndar obtenida, no entra dentro de las especificaciones de precisin; es
decir, no esta contenida en el crculo postulado de radio igual a 1 cm.

Fiabilidad interna:
ndices de sensibilidad: = 0.05, = 0.80;
0
= 2.80

Obs. ri
0i
(m)
1 0.5912 0.068
2 0.1604 0.099
3 0.2442 0.068

Fiabilidad externa:
Transferencia a coordenadas: Vectores de fiabilidad externa:

Observable 1 (distancia 1-4):
Punto 4: ISX = -0.027 m ISY = -0.008 m


163
Observable 2 (distancia 2-4):
Punto 4: ISX = 0.072 m ISY = -0.044 m

Observable 3 (distancia 3-4):
Punto 4: ISX = 0.019 m ISY = 0.047 m

ISX y ISY son las influencias sobre las coordenadas compensadas del punto 4 de los
errores no detectados por el -test de Baarda; es decir aquellos que se mantendran por
debajo de los mnimos errores detectados
0i
.

El diseo no resulta satisfactorio. Intentaremos ahora con observaciones dobles.
El error estndar de la media aritmtica de cada distancia observada dos veces es:


1 1
(5 1 ( )) 3.53 0.71 ( )
2 2
S S
mm ppmS mm ppmS mm = = + = +

Los parmetros de la elipse estndar son ahora:

punto A(m) B(m) excentricidad rea (cm2)
4 -17.29 0.0095 0.0074 0.3969 2.21

La elipse estndar del punto 4 entra ahora dentro de las especificaciones de precisin
postuladas; es decir, est contenida dentro del crculo de radio igual a 1 cm.

Fiabilidad interna:
ndices de sensibilidad: = 0.05, = 0.80;
0
= 2.80

Obs. ri
0i
(m)
1 0.5890 0.048
2 0.1597 0.070
3 0.2429 0.048

Fiabilidad externa:
Transferencia a coordenadas: Vectores de fiabilidad externa:

Observable 1 (distancia 1-4):
Punto 4: ISX = -0.019m ISY = -0.006 m

Observable 2 (distancia 2-4):
Punto 4: ISX = 0.051 m ISY = -0.031 m

Observable 3 (distancia 3-4):
Punto 4: ISX = 0.013 m ISY = 0.034 m

En el diseo con observaciones duplicadas no solamente se satisface la precisin
especificada (A < 1 cm), sino que disminuyeron los mnimos errores detectables en las
observaciones y su influencia sobre las coordenadas del punto 4

164
En el diseo prueba y error de redes altimtricas se procede siguiendo los cinco pasos
anteriores, salvo que las precisiones se especifican para los errores estndar de las cotas,
ya que las elipses de error son propias de las redes planas exclusivamente.

Simulacin:

Una vez obtenido el diseo satisfactorio por prueba y error, en ciertos casos resulta
conveniente efectuar la simulacin de la red, es decir, simular las observaciones y
ajustar la red con las observaciones simuladas para tener una respuesta a priori del
ajuste de la red real. Para ello se definen parmetros (coordenadas o cotas) exactos con
lo que se logra una red ideal calculando observables tambin ideales (sin errores). Si
ahora se descorrigen los observables ideales o exactos afectndolos de los errores
adoptados en la etapa de diseo, se obtienen las observaciones simuladas. Los errores
introducidos debern estar comprendidos en el rango -2.5 y +2.5 y sus magnitudes y
signos tendrn que ser tales que los errores distribuyan segn la ley normal de Gauss,
donde es la desviacin estndar adoptada para las observaciones en el diseo de la
red. Luego se procede a efectuar el ajuste mnimos cuadrados como si se tratase de una
red observada realmente.

Ejemplo 1: Sean cuatro puntos del terreno cuyas coordenadas planas aproximadas estn
dadas en la siguiente tabla:

punto X(m) Y(m)
1 200 100
2 500 300
3 250 600
4 100 400

Vamos a disear una red plana libre de la influencia de constreimientos externos, que
satisfaga el siguiente postulado de precisin:

El semeje mayor A de las elipses de error del 95% de confianza, no debe superar el
valor de dos centmetros, es decir: A 2 cm.

Se dispone de una estacin total con las siguientes caractersticas:

Error estndar de una direccin horizontal:
dh
= 5
Error estndar en distancias:
S
= 5 mm + 1 ppm S (mm)


Diseo 1: planificamos medir 6 ngulos y dos distancias, codificadas en la siguiente
tabla:
ang. cdigos ngulos
1 2-1-4
2 4-2-1
3 3-2-4
4 4-3-2
5 2-4-3
6 1-4-2
165
dist. cdigos distancias
1 1-0-3
2 2-0-4

En este caso el nmero de observaciones es n = 8, el nmero de parmetros
(coordenadas planas) es m = 8 y el nmero de grados de libertad es r = 3, entonces la
redundancia de la red es = n m + r = 8 8 +3 = 3.
Usamos la aplicacin MATLAB, REDPLN_D y el mtodo prueba y error que
produce los siguientes resultados:

Errores estndar de las coordenadas y errores estndar de posicin medios:

punto
X
(m)
Y
(m) EPM 2EPM
1 0.0042 0.0044 0.0061 0.012
2 0.0045 0.0043 0.0059 0.012
3 0.0041 0.0043 0.0059 0.012
4 0.0033 0.0058 0.0067 0.013

El error de posicin medio
2 2
X Y
EPM = + contiene del 64% al 77% de
probabilidad, mientras que la medida relacionada 2EPM = 2 EPM contiene del 95% al
98% de probabilidad.

Elipses de error del 95% de confianza ( FM = 6.16):

punto A (m) B (m) excentr. rea (cm
2
)
1 -29.22 0.0273 0.0213 0.1125 22.08
2 25.50 0.0279 0.0259 0.1406 22.68
3 -39.98 0.0279 0.0236 0.2853 20.67
4 -12.00 0.0360 0.0190 0.7203 21.55
= 1.2587 = 86.98
El diseo no resulta satisfactorio puesto que las elipses de los puntos no cumplen con el
postulado de precisin. Veamos, sin embargo, los parmetros de fiabilidad:

Fiabilidad:
ndices de sensibilidad de la red: = 0.05, = 0.80,
0
= 2.80

obs. ngulo r
i

0i

INi

EXi

1 2-1-4 0.4742 28.8 4.0661 2.9482
2 4-2-1 0.4114 26.7 4.3517 3.3491
3 3-2-4 0.4371 25.9 4.2351 3.1773
4 4-3-2 0.4610 29.2 4.1239 3.0278
5 2-4-3 0.3167 30.5 4.9755 4.1126
6 1-4-2 0.3281 29.9 4.8883 4.0070
obs. distancia r
i

0i
(m)
INi

EXi

1 1-0-3 0.2471 0.042 5.6328 4.8872
2 2-0-4 0.3243 0.035 4.9168 4.0416
r
i
= 3
rm = 0.3750
166
Transferencia a coordenadas. Vectores de fiabilidad externa:

Observable 1: (ngulo 2-1-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.004 0.001 0.000 -0.005
ISY (m): 0.009 -0.007 0.005 -0.007

Observable 2: (ngulo 4-2-1)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.010 -0.010 0.001 0.000
ISY (m): -0.007 -0.002 0.000 0.010

Observable 3: (ngulo 3-2-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.002 -0.008 0.011 -0.004
ISY (m): 0.000 -0.004 0.006 -0.010


Observable 4: (ngulo 4-3-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.002 0.003 0.000 -0.001
ISY (m): -0.004 0.006 -0.009 -0.008

Observable 5: (ngulo 2-4-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.002 0.005 -0.013 0.010
ISY (m): 0.000 -0.008 0.003 0.005

Observable 6: (ngulo 1-4-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.015 0.009 -0.002 0.008
ISY (m): -0.001 0.008 0.000 -0.007

Observable 7: (distancia 1-0-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.002 0.005 0.003 -0.006
ISY (m): 0.016 0.000 0.016 0.001

Observable 8: (distancia 2-0-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.003 0.015 -0.004 -0.008
ISY (m): -0.005 -0.004 0.006 0.003

En los puntos que estn sobremarcados, el mdulo del vector de influencias
2 2
ISX ISY + supera a 2EPM. Esto significa que los potenciales errores no detectados
por el -test de Baarda, influiran en forma perjudicial sobre las coordenadas ajustadas
en los puntos identificados. Es necesario, pues, intentar un nuevo diseo.

Diseo2: Incluimos la medicin de las distancias 2-0-1 y 2-0-3. El nmero de
observaciones es ahora n = 10, el nmero de parmetros (coordenadas planas) es m = 8
167
y el nmero de grados de libertad es r = 3, entonces la redundancia de la red es = n
m + r = 10 8 + 3 = 5. Los resultados son los siguientes:

Errores estndar de las coordenadas y errores estndar de posicin medios:

punto
X
(m)
Y
(m) EPM 2EPM
1 0.0030 0.0041 0.0051 0.0100
2 0.0031 0.0028 0.0042 0.0083
3 0.0036 0.0039 0.0053 0.0110
4 0.0033 0.0056 0.0065 0.0130

Elipses de error del 95% de confianza ( FM = 3.40):

punto A (m) B (m) excentr. rea (cm
2
)
1 19.57 0.0145 0.0094 0.5796 4.26
2 -11.20 0.0106 0.0095 0.1996 3.15
3 -40.11 0.0154 0.0091 0.6492 4.39
4 -12.81 0.0195 0.0104 0.7135 6.40
= 2.1419 = 18.21


El nuevo diseo cumple con el postulado de precisin, puesto que los semiejes mayores
de las elipses de todos los puntos son ahora menores o iguales que 2 cm. Si bien la suma
de las excentricidades de las elipses es ahora levemente mayor que en el diseo anterior,
la suma de reas de incertidumbre resulta mucho menor en el diseo 2.

Veamos ahora los parmetros de:

Fiabilidad:

obs. ngulo r
i

0i

INi

EXi

1 2-1-4 0.5912 25.8 3.6416 2.3284
2 4-2-1 0.4979 24.3 3.9681 2.8117
3 3-2-4 0.4973 24.3 3.9705 2.8149
4 4-3-2 0.5601 26.5 3.7413 2.4815
5 2-4-3 0.4984 24.3 3.9661 2.8089
6 1-4-2 0.6031 22.1 3.6055 2.7414
obs. distancia r
i

0i
(m)
INi

EXi

1 2-0-1 0.3859 0.031 4.5073 3.5323
2 2-0-4 0.5492 0.027 3.7783 2.5369
3 2-0-3 0.4522 0.029 4.1638 3.0817
4 1-0-3 0.3647 0.035 4.6365 3.6958
r
i
= 5
r m = 0.5

Se observa que han aumentado los nmeros de redundancia y han disminuido los
mnimos errores detectables, respecto del diseo anterior. Los parmetros de
homogeneidad interna y externa indican que la red es homognea en toda su extensin.

168
Transferencia a coordenadas: Vectores de fiabilidad externa:

Observable 1: (ngulo 2-1-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.000 0.002 0.002 -0.004
ISY (m): 0.007 -0.002 0.003 -0.007

Observable 2: (ngulo 4-2-1)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.006 -0.006 0.000 0.000
ISY (m): -0.008 -0.001 0.001 0.008

Observable 3: (ngulo 3-2-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.000 -0.005 0.008 -0.004
ISY (m): -0.001 0.002 0.007 -0.009

Observable 4: (ngulo 4-3-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.001 0.002 0.000 -0.001
ISY (m): -0.003 0.001 -0.007 0.009

Observable 5: (ngulo 2-4-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.002 0.001 -0.007 0.008
ISY (m): 0.000 -0.003 0.000 0.003

Observable 6: (ngulo 1-4-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.006 0.002 -0.002 0.006
ISY (m): 0.002 0.003 0.000 -0.004

Observable 7: (distancia 2-0-1)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.008 0.008 0.001 0.000
ISY (m): -0.004 0.006 0.000 -0.002

Observable 8: (distancia 2-0-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.002 0.006 0.000 -0.006
ISY (m): -0.002 -0.002 0.002 0.002

Observable 9: (distancia 2-0-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.001 0.005 -0.006 0.000
ISY (m): -0.001 -0.007 0.005 0.003




169
Observable 10: (distancia 1-0-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.001 -0.001 0.004 -0.005
ISY (m): -0.011 0.000 0.011 0.004

Solamente el observable 7 (distancia 2-0-1) tiene sobre el punto 2 una influencia total
IT, mayor que 2EPM ( EPM ISY ISX IT 2
2 2
> + = ). El diseo es satisfactorio.

Vamos a simular la medicin de la red siguiendo al diseo2, con el objeto de anticipar
la respuesta del ajuste de la red real. Se comienza dando unas coordenadas exactas o
ideales y las consideraremos como las coordenadas verdaderas. A partir de ellas se
determinan los ngulos y lados exactos, los que luego se descorrigen simulando la
medicin para luego realizar el ajuste. Las coordenadas exactas son:

punto X (m) Y (m)
1 198.279 105.038
2 506.241 295.772
3 246.651 607.119
4 97.892 395.095

nmero ngulo exacto nmero lado exacto
1 77 20 01.38 1 362.396 m
2 45 25 17.56 2 420.430 m
3 36 29 43.79 3 405.484 m
4 74 53 37.36 4 504.406 m
5 69 36 38.86
6 57 14 41.06

Simulamos la medicin introduciendo errores que tengan distribucin gaussiana, de tal
forma que el 68% de ellos pertenezca al intervalo [-, +] y el resto no supere el
intervalo [-3, +3], donde es el error estndar de los instrumentos de medicin.

Los ngulos y lados simulados son:

nmero ngulo simulado nmero lado s
1 77 20 04 1 362.397 m
2 45 25 15 2 420.423m
3 36 29 48 3 405.491 m
4 74 53 35 4 504.396 m
5 69 36 49
6 57 14 30

Procedemos a ejecutar el ajuste libre con la aplicacin MATLAB, REDPLN_A
considerando, como en el diseo, ngulos correlacionados. Las coordenadas
aproximadas son las mismas que se utilizaron en el diseo.
El nmero de observaciones es n = 10, el nmero de parmetros es m = 8 y el nmero
de grados de libertad es r = 3, entonces la redundancia de la red es = 10 8 + 3 = 5.
170
La varianza a posteriori
2
0
0.8619 = supera la prueba chi-cuadrado en la tercera
iteracin,
2
5, 0.025
= 0.831,
2
5, 0.975
= 12.8.
Coordenadas ajustadas y sus errores estndar:










Elipses de error del 95% de confianza (FM = 3.40):
punto A (m) B (m) excentr. rea (cm
2
)
1 21.45 0.0136 0.0088 0.5813 3.76
2 -13.39 0.0099 0.0085 0.1900 2.74
3 -38.30 0.0145 0.0085 0.6564 3.87
4 -11.03 0.0185 0.0097 0.7251 5.64
= 2.1528 = 16.01

Fiabilidad:
ndices de sensibilidad de la red: = 0.05, = 0.80,
0
= 2.80

obs. ngulo v
i

i
r
i

0i

INi

EXi

1 2-1-4 1.25 0.2496 0.5778 26.0 3.6836 2.3935
2 4-2-1 0.84 0.1877 0.5057 24.1 3.9374 2.7682
3 3-2-4 -5.55 -1.2453 0.5073 24.1 3.3912 2.7594
4 4-3-2 -1.32 -0.2652 0.5752 26.1 3.6919 2.4062
5 2-4-3 -5.12 -1.0154 0.5010 24.2 3.9558 2.7944
6 1-4-2 8.92 1.6647 0.6008 22.1 3.6124 2.2688
obs. distancia v
i
(m)
i
r
i

0i
(m)
INi

EXi

1 2-0-1 -0.007 -1.7040 0.3845 0.031 4.5155 3.5426
2 2-0-4 0.004 0.9066 0.5467 0.027 3.7869 2.5496
3 2-0-3 -0.003 -0.7182 0.4455 0.029 4.1950 3.1238
4 1-0-3 0.005 1.1076 0.3554 0.035 4.6968 3.7709

r
i
= 5
rm = 0.5
De la tabla t de Student: t
5, 0.975
= 2.57. Los parmetros de Baarda se mantienen por
debajo de este valor para todas las observaciones; es decir
i
< t
5, 0.975
= 2.57. El -
punto X(m)
X
(m) Y(m)
Y
(m) EPM 2EPM
1 198.2203 0.0028 104.3516 0.0038 0.0047 0.0094
2 506.5537 0.0029 294.7650 0.0026 0.0039 0.0078
3 247.0975 0.0033 606.3785 0.0037 0.0050 0.0100
4 98.1285 0.0030 394.5049 0.0054 0.0062 0.0124
------ ------ -------- ------ -------- ------ -------
171
test de Baarda no ha detectado errores groseros en las observaciones, en consecuencia
no se rechaza ninguna de ellas.
Transferencia a coordenadas: Vectores de fiabilidad externa:
Vamos a estudiar ahora la influencia de los errores no detectados por el -test de
Baarda sobre las coordenadas ajustadas:

Observable 1: (ngulo 2-1-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.000 0.002 0.002 -0.004
ISY (m): 0.007 -0.002 0.003 -0.008

Observable 2: (ngulo 4-2-1)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.006 -0.005 0.000 -0.001
ISY (m): -0.009 -0.001 0.001 0.008

Observable 3: (ngulo 3-2-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.000 -0.004 0.008 -0.004
ISY (m): -0.001 0.003 0.007 -0.009

Observable 4: (ngulo 4-3-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.001 0.002 -0.002 -0.001
ISY (m): -0.003 0.001 -0.007 0.009

Observable 5: (ngulo 2-4-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.002 0.001 -0.007 0.008
ISY (m): 0.000 -0.003 -0.001 0.003

Observable 6: (ngulo 1-4-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.006 0.002 -0.002 0.006
ISY (m): 0.002 0.002 0.000 -0.004

Observable 7: (distancia 2-0-1)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): -0.009 0.008 0.001 0.000
ISY (m): -0.004 0.006 0.000 -0.002

Observable 8: (distancia 2-0-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.002 0.006 -0.001 -0.006
ISY (m): -0.002 -0.002 0.001 0.002



172
Observable 9: (distancia 2-0-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.001 0.005 -0.006 0.000
ISY (m): -0.001 -0.007 0.005 0.002

Observable 10: (distancia 1-0-3)
Punto 1 Punto 2 Punto 3 Punto 4
ISX (m): 0.001 -0.001 0.004 -0.005
ISY (m): -0.011 0.000 0.011 0.000

En los puntos 1, 2 y 3, los observables 2, 7, 8, 9 y 10 ejercen una influencia total IT
mayor que 2EPM, donde la diferencia no supera el valor de 2 milmetros.

Observables ajustados y sus errores estndar:

ngulo obsev. ajustado err. est.
2-1-4 77 23 05.25 4.3
4-2-1 45 25 15.84 4.8
3-2-4 36 29 42.4 4.8
4-3-2 74 53 33.7 4.3
2-4-3 68 36 43.9 4.2
1-4-2 57 14 38.9 3.8
distancia observ. ajustado err.est.(m)
2-0-1 362.390 m 0.005
2-0-4 420.274 m 0.004
2-0-3 405.488 m 0.005
1-0-3 504.401 m 0.006

El ajuste libre de la red simulada acuerda sensiblemente con los resultados del diseo.
Esta es la respuesta esperada en el ajuste libre de la red real.

En el ajuste vinculado, fijamos las coordenadas de los puntos 1 y 3 del ajuste libre con
sus errores estndar:

PF X (m)
X
(m) Y (m)
Y
(m)
1 198.220 0.003 104.352 0.004
3 247.098 0.003 606.378 0.004

El nmero de observaciones es n = 14, el nmero de parmetros es m = 8 y el nmero
de grados de libertad es r = 0, entonces la redundancia de la red es = 14 8 = 6.
La varianza a posteriori
2
0
0.7198 = supera la prueba chi-cuadrado en la tercera
iteracin,
2
6, 0.025
= 1.24,
2
6, 0.975
= 14.4.



173
Coordenadas ajustadas y sus errores estndar:

punto X (m)
X
(m) Y (m)
X
(m) EPM 2EPM
1 (PF) 198.220 0.002 104.352 0.003 0.0036 0.0072
2 506.554 0.004 294.764 0.006 0.0072 0.0144
3 (PF) 247.098 0.002 606.378 0.003 0.0036 0.0072
4 98.129 0.004 394.505 0.008 0.0089 0.0178

Elipses de error del 95% de confianza (FM = 3.40):

punto A (m) B (m) excentr. rea (cm
2
)
1 (PF) 3.52 0.0096 0.0082 0.1920 2.47
2 -11.80 0.0185 0.0139 0.4355 8.08
3 (PF) 3.52 0.0096 0.0082 0.1920 2.47
4 -11.94 0.0269 0.0133 0.7555 11.24
= 1.5750 = 24.26

Las elipses de error del ajuste vinculado difieren significativamente de las elipses del
ajuste libre puesto que las primeras estn influenciadas por los constreimientos
externos (puntos fijos). Si cambiamos los puntos fijos, cambian los parmetros de las
elipses de error, es decir que son dependientes del datum. El tamao de las elipses de
error depende de la proximidad a los puntos fijos. En cambio las elipses del ajuste libre
son invariantes respecto del datum creado por los puntos fijos y reflejan en forma
confiable la precisin interna de la red.


La prueba F:

Interesa saber si las varianzas a posteriori
2 2
1 2
y de los ajustes libre y vinculado
respectivamente, difieren o no significativamente
El cociente de varianzas:
2
1
2
2

= distribuye F con
1
y
2
grados de libertad.
Si
1 2
0 , F F

< < donde


1 2
, F

es el valor crtico para


1 2
y grados de libertad y
para el nivel de significacin , se acepta al nivel de confianza 1 - que ambas
muestras no difieren significativamente y pertenecen a la misma poblacin.
Para nuestro ejemplo 1 se tiene:

Muestra 1: Red libre:
1
= 5,
2
1
0.8619 =
Muestra 2: Red vinculada:
1
= 6,
2
2
0.7198 =

El estadstico F es:
0.8619
1.1974
0.7198
F = = y el valor crtico:
0.05
1 2
, 4.39 F =
Puesto que
0.05
1 2
, F F < , no existe diferencia significativa entre ambas varianzas
muestrales y ambas pertenecen a la misma poblacin.

174
Ejemplo2: Vamos a disear una red altimtrica donde nos imponemos el siguiente
postulado de precisin: los errores estndar de las cotas ajustadas debe ser menor o igual
que 4 mm. En la figura siguiente, las flechas apuntan hacia el punto del terreno de
mayor cota.













figura

Planificamos medir cinco desniveles con un nivel y un procedimiento que garantice un
error estndar de un desnivel 10 ( )
h
mm
L km
km
= , donde L es la longitud del tramo
nivelado, expresada en kilmetros. Los datos estn en la tabla siguiente:

tramo 1-2 4-2 3-2 1-4 3-4
longitud(m) 360 420 405 320 250
punto 1 2 3 4 ----
Z(m) 100 115 105 110 ----

El nmero de observables es n = 5, el nmero de parmetros (cotas) es m = 4 y el
nmero de grados de libertad es r = 1, entonces la redundancia de la red es = 2
El diseo prueba y error se ejecuta con la aplicacin MATLAB, REDALT_D. Los
resultados son:

Errores estndar de las cotas:

punto 1 2 3 4

Z
(mm) 3.2 2.7 3.1 2.5

Fiabilidad:
ndices de sensibilidad de la red: = 0, = 0;
0
= 2.80
desnivel r
i

0i
(m)
INi

Exi

1-2 0.3847 27.1 4.5144 3.5411
4-2 0.5573 24.3 3.7507 2.4956
3-2 0.4428 26.8 4.2078 3.1409
1-4 0.3419 27.1 4.7886 3.8847
3-4 0.2733 26.8 5.3560 4.5658
ri = 2
rm = 0.4
1
2
3
4
175

Transferencias a cotas: Vectores de fiabilidad externa:

Observable 1:(desnivel 1-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): -10.0 7.0 3.0 00.0

Observable 2:(desnivel 4-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): 00.0 6.0 1.0 -5.0

Observable 3:(desnivel 3-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): 3.0 7.0 -8.0 -1.0

Observable 4:(desnivel 1-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): -11.0 0.0 4.0 7.0

Observable 5:(desnivel 3-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): 4.0 0.0 -12.0 8.0

El diseo no resulta satisfactorio puesto que la influencia de los errores no detectados
por el -test de Baarda sobre las cotas, es mayor que el error postulado (4 mm).

Intentaremos un nuevo diseo con un instrumento que permita obtener:


3
( )
h
mm
L km
km
=
Los resultados son en este caso:

Errores estndar de las cotas:

punto 1 2 3 4

Z
(mm) 1.0 0.8 0.9 0.7

Fiabilidad:
ndices de sensibilidad de la red: = 0, = 0;
0
= 2.80

desnivel r
i

0i
(m)
INi

Exi

1-2 0.3847 8.0 4.5144 3.5411
4-2 0.5573 7.3 3.7507 2.4956
3-2 0.4428 8.0 4.2078 3.1409
1-4 0.3419 8.1 4.7886 3.8847
3-4 0.2733 8.0 5.3560 4.5658
ri = 2
rm = 0.4

176
Transferencias a cotas: Vectores de fiabilidad externa:

Observable 1:(desnivel 1-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): -2.9 2.1 0.8 -0.1

Observable 2:(desnivel 4-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): 0.0 1.7 -0.3 -1.5

Observable 3:(desnivel 3-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): 0.8 2.0 -2.5 -0.3

Observable 4:(desnivel 1-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): -3.2 -0.1 1.3 2.1

Observable 5:(desnivel 3-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): 1.2 0.0 -3.5 2.3

Las influencias de los errores no detectados por el -test de Baarda sobre las cotas, no
superan al error postulado (4 mm). Este diseo es satisfactorio.

Vamos a simular los desniveles de la red aceptando que el mximo error tolerable es:

T = 2.5
h

Si definimos las cotas exactas o verdaderas por:


punto 1 2 3 4
Z(m) 98.102 117.221 103.890 111.628

Se tiene:
tramo 1-2 4-2 3-2 1-4 3-4
desnivel exacto(m) 19.119 5.593 13.331 13.526 7.738
Desnivel simulado(m) 19.121 5.591 13.332 13.528 7.736

El criterio para simular las observaciones (desniveles geomtricos) a partir de los
desniveles exactos, es el mismo que se aplic en el ejemplo de la red plana.

malla error de cierre (mm) tolerancia (mm)
I 2.0 7.9
II -5.0 7.8

En ambas mallas los errores de cierre altimtricos estn por debajo de la tolerancia,
podemos entonces comenzar con el ajuste libre de la red simulada que se ejecuta con la
aplicacin MATLAB, REDALT_A, siguiendo el diseo satisfactorio.
177
La varianza a posteriori
2
0
1.2921 = del ajuste libre supera la prueba chi-cuadrado en
tres iteraciones,
2
2, 0.025
= 0.0506,
2
2, 0.975
= 7.38.

Cotas ajustadas y sus errores estndar:

punto 1 2 3 4
Z(m) 97.8900 117.0110 103.6809 111.4181

Z
(mm) 1.1 0.9 1.01 0.8

Fiabilidad:
ndices de sensibilidad de la red: = 0, = 0;
0
= 2.80

obs. v
i
(mm)
i
r
i

0i
(m)
INi

Exi

1 0.0 -0.0160 0.3847 8.1 4.5144 3.5411
2 2.0 1.3547 0.5573 7.3 3.7507 2.4956
3 -1.9 -1.4765 0.4428 8.0 4.2078 3.1409
4 0.0 0.0160 0.3419 8.1 4.7886 3.8847
5 1.2 1.4765 0.2733 8.0 5.3560 4.5658
ri = 2
rm = 0.4

Transferencias a cotas: Vectores de fiabilidad externa:

Observable 1:(desnivel 1-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): -2.9 2.1 0.8 -0.1

Observable 2:(desnivel 4-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): 0.0 1.7 -0.3 -1.5

Observable 3:(desnivel 3-2)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): 0.8 2.0 -2.5 -0.3

Observable 4:(desnivel 1-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): -3.2 -0.1 1.3 2.1

Observable 5:(desnivel 3-4)
Punto 1 Punto 2 Punto 3 Punto 4
ISZ(mm): 1.2 0.0 -3.5 2.3

Desniveles ajustados y sus errores estndar:

desnivel 1-2 4-2 3-2 1-4 3-4
obs. ajustada(m) 19.1210 5.5930 13.3301 13.5280 7.7372
error estndar(mm) 1.6 1.5 1.6 1.6 1.5

178
El ajuste libre de la red simulada concuerda sensiblemente con el diseo satisfactorio.

Vamos a ejecutar ahora el ajuste vinculado de la red simulada con la aplicacin
REDALT_A. Consideramos fijo el punto 1 y le asignamos un error igual a 1mm a su
cota:

PF Z(m)
Z
(mm)
1 98.0102 1

El punto fijo anula el nico grado de libertad de la red altimtrica, entonces la
redundancia de la red es = 2.

La varianza a posteriori del ajuste vinculado
2
0
1.2921 = pasa la prueba chi-cuadrado
en tres iteraciones.

Cotas ajustadas y sus errores estndar:

punto 1 2 3 4
Z(m) 98.0102 117.1312 103.8011 111.8382

Z
(mm) 1.1 2.0 2.3 1.9


-------------------------------------

























179
TRABAJO PRCTICO 4: DISEO, SIMULACION Y AJUSTE DE REDES
TOPOGRAFICAS.

E1. En el j-simo vrtice de una red plana se observan n direcciones horizontales segn
la figura siguiente:


















Las direcciones horizontales d
j1
, d
j2
, d
j(n-1)
, d
jn
, son observaciones independientes con
error estndar
dh
, que generan un conjunto
j 1-2
,
j 1-3
,
j 1-(n-1)
,
j 1-n
de ngulos
correlacionados. Hallar la matriz varianza-covarianza

del vector = [
j 1-2
,
j 1-3
,
j 1-
(n-1)
,
j 1-n
]
T
y la matriz de los pesos P

, si los ngulos se definen como:




j 1-2
= d
j2
d
j1


j 1-3
= d
j3
d
j1

.

j 1-(n-1)
= d
j(n-1)
d
j1


j 1-n
= d
jn
d
j1

Construya la matriz P delos pesos para una red plana de trilateracin con p puntos, si
los ngulos en cada estacin se disean segn la figura anterior. Considere que las
distancias son independientes.

E2: Disee, simule y ajuste sus propias redes topogrficas: planas y altimtricas. En el
caso de las redes planas, considere las correlaciones entre los ngulos horizontales.
Hgalo ahora sin considerar las correlaciones entre ngulos y establezca las diferencias.




-----------------------------------



j 1-2

j 1-(n-1)

j 1-n
d
1
d
2
d
n-1
d
n
j
180
BIBLOGRAFIA

Aguilar, F. (1942) Lecciones de Geodesia: Teora de los Errores de Observacin y
Clculo de Compensacin por el Mtodo de los Mnimos Cuadrados
Centro de Estudiantes de Ingeniera-UNLP.

Bern Valero, Jose Luis (2001). Microgeodesia y Redes de Alta Precisin. Proyecto
Prctico 2001. Universidad Politecnica de Valencia.

Bjerhammar, A. (1973) Theory of Errors and Generlized Matrix Inverses
Elsevier Scientific Publishing Company.

Bolshakov, V. y Gaidayev, P. (1989) Teora de la Elaboracin de Mediciones
Geodsicas
Editorial MIR-Mosc.

Brunini, Claudio (1992). Compensacin de Redes. UNLP.

Chrzanowski, Adam (1974). Adjustment and Error Enalysis of Surveying Networks
Department of Surveying Engineering-University of New Brunswick- Fredericton, N.B.

Chueca Pazos, Manuel, Herraez Boquera, Jos, Bern Valero, Jos Luis (1996). Redes
Topogrficas y Locales. Microgeodesia. Escuela Tcnica Superior de Ingeniera
Geodsica, Cartografa y Topografa. Universidad Politecnica de Valencia. Editorial
Paraninfo.

Etter, Delores M. (1998). Solucin de problemas de ingeniera con MATLAB
Segunda edicin. Department of Electrical and Computer Engineering. University of
Colorado, Boulder. Prentice-Hall.

Forsythe, G. y Moler C. (1973). Solucin mediante computadoras de Sistemas
Algebraicos Lineales Ed. EUDEBA / Editorial Universitaria de Buenos Aires.

Kuang, Shanlong (1996). Geodetic Network Analysis and Optimal Design: Concepts
and Aplications. Ann Arbor Press, Inc. Chelsea, Michigan

Leick, Alfred (1995). GPS Satellite Surveying. Department of Surveying
Engineering. University of Maine. Orono. John Wiley & Sons, Inc.

Rainsford, Hume (1957). Survey Adjustment and Least Squares. Constable.

Spiegel, Murray (1996). Probabilidad y Estadstica. Segunda edicin. Schaum-
McGraw Hill.

Strang, Gilbert (1986). Algebra Lineal y sus Aplicaciones. Masschussets Institute of
Technology. Adison-Wesley Iberoamericana.


--------------------------------

Das könnte Ihnen auch gefallen