Beruflich Dokumente
Kultur Dokumente
Claro est que este desarrollo vali para el caso en que queremos
proyectar los datos sobre un espacio uni-dimensional. Se puede ver sin
mayor esfuerzo [9] que para el caso de querer proyectar sobre un
espacio m-dimensional, se debe resolver el mismo problema y elegir los
m vectores propios con valores propios asociados ms grandes.
Figura 2 Ejemplo
de malla en AAM
Mediante el anlisis de componentes principales (PCA) sobre las mallas de
entrenamiento se obtiene una malla s0 y un subespacio Bs=[s1,,sN] formado
por n componentes principales, con una dimensionalidad menor que la del
conjunto de entrenamiento.
Cualquier instancia de la forma del modelo se obtiene a partir de una
combinacin lineal de los vectores de la base de forma, Bs mediante la
siguiente expresin:
de parmetros =(1,2,,m):
Una vez obtenido el modelo de apariencia lineal, se procede con el ajuste del
modelo que trata de, a partir de una imagen de entrada I(x), encontrar el
conjunto de parmetros p y que minimicen el error cuadrtico entre la
instancia del modelo generado a partir de esos parmetros y la imagen de
entrada:
Existen diversos mtodos para minimizar esta ecuacin, entre los que destacan
por su precisin el algoritmo de Lucas-Kanade, el cual, en lneas generales, es
Bibliografa
D. Bolme, R. Beveridge, M. Teixeira, and B. Draper, "The CSU Face Identification
Evaluation System: Its Purpose, Features and Structure," International
Conference on Vision Systems, Graz, Austria, April 1-3, 2003. (Springer-Verlag)
304-311.
"Eigenface Recognition" http://et.wcu.edu/aidc/BioWebPages/eigenfaces.htm.
J. Lu, K.N. Plataniotis, and A.N. Venetsanopoulos, "Regularized Discriminant
Analysis For the Small Sample Size Problem in Face
Recognition," Pattern Recognition Letters, December 2003, Vol. 24, Issue 16:
3079-3087.