Beruflich Dokumente
Kultur Dokumente
0.- RESUMEN
En este documento se recoge toda la informacin relativa al estudio del sistema de suspensin de una vagoneta para transporte de mercancas que se ha llevado cabo en las clases prcticas de la asignatura. Como introduccin se presentar brevemente el problema, y se comentarn tanto los mtodos utilizados en la resolucin del mismo como los objetivos. Seguidamente se llevar a cabo la resolucin matemtica y posteriormente se discutirn tanto los resultados intermedios como finales, as como la eficacia de los mtodos numricos utilizados. realizado. Finalmente se comentarn las conclusiones generales del estudio
7. Conclusiones....26
2.- INTRODUCCIN
Se ha estudiado el funcionamiento de un sistema de suspensin de una vagoneta cuya finalidad es el transporte de mercancas. Antes de ponerla en marcha, se quieren conocer los parmetros que definen el sistema para poder simular su comportamiento en el circuito y as optimizar su uso. La suspensin puede ser modelada de forma simplificada segn el esquema siguiente:
Un sensor de posicin registra los datos de L(t) con una frecuencia de 10 Hz durante los 5 primeros segundos desde el momento de colocar carga. Los datos recogidos se recogern en una tabla para su posterior uso.
Respecto al modelado matemtico, se ha tomado como variable de salida la elongacin del sistema L(t). A partir de este modelo y conocidos los parmetros C y K, ha sido posible determinar la respuesta del sistema. La problemtica se plantea al resolver la estimacin de los parmetros del sistema, puesto que los valores de la constante de rigidez K y la constante de amortiguamiento C son desconocidos.
Previamente se ha relizado un estudio del ajuste de la funcin predicha por el modelo respecto de los datos experimentales disponibles en Microsoft Office Excel, que gracias a su gran capacidad para representar grficamente los datos, se ha apreciado las diferencias existentes entre el modelo y los datos experimentales, segn los valores de C y K. A continuacin se presentan los diferentes algoritmos empleados en la estimacin de los parmetros desconocidos del sistema estudiado.
i +1 = i pi [Ri ] qi
Algoritmo de mxima pendiente
Es el ms sencillo de todos. Emplea R i = I , de manera que el algoritmo es equivalente a ir desplazndose a lo largo de la direccin en la que la funcin de coste decrece ms rpidamente. La ventaja de es que se garantiza que la direccin de desplazamiento es siempre una direccin en la que la funcin de coste disminuye. Un inconveniente es que el comportamiento
del algoritmo y su convergencia estn muy marcados por el valor del paso. Si por ejemplo la estimacin inicial se encuentra lejos del mnimo y el valor del paso es pequeo, el algoritmo necesitar un gran nmero de iteraciones para acercarse a la solucin ptima y adems tender a oscilar alrededor de la solucin. Otra causa por la que el algoritmo puede fallar es cuando la funcin de coste toma forma de valle poco pronunciado, de manera que el vector gradiente es casi nulo en todos los puntos.
Algoritmo de Newton
() evaluada para = i .
H jk ( ) = 2
j
La idea detrs de este algoritmo es situar cada nuevo punto en el mnimo de la parbola que mejor aproxima la funcin de coste en la iteracin anterior. La convergencia del Algoritmo de Newton-Rapshon es mucho ms rpida en general que la del Algoritmo de Mxima Pendiente, requiriendo un nmero de iteraciones mucho menor en la bsqueda de solucin ptima. Esto se debe a que, como se ha sealado, el Algoritmo de Newton recoge informacin no slo de las derivadas primeras de la funcin de coste, sino tambin de las derivadas segundas.
Como norma general, la convergencia del algoritmo es tanto ms rpida cuanto ms cerca se encuentra la estimacin inicial del mnimo de la funcin de coste. Esto supone una limitacin del mtodo de Newton, pues para puntos lejanos del mnimo, la matriz Hessiana puede no ser definido-positiva, lo que lleva a que el algoritmo se comporte mal y no se obtenga una disminucin de la funcin de coste de una iteracin a la siguiente. Para evitar este comportamiento, se ha desarrollado un nuevo algoritmo, denominado Algoritmo de Marquardt. Algoritmo de Marquardt
Para combinar los mtodos de Mxima Pendiente y Newton-Rapshon logrndose un algoritmo con las ventajas de cada uno ellos, de manera que en los puntos lejanos al ptimo garantizase una direccin de descenso y en los puntos cercanos al ptimo una convergencia rpida.
R i = ( H i + i Bi2 ) 1
H ii 1 / 2 si ( H ii 0) Donde B ii = 1si ( H ii = 0)
R i ser definido positiva si i toma un valor suficientemente algo. Cuando la
estimacin est lejos del mnimo y i toma valores grandes, el trmino i Bi2 domina al trmino H i y el algoritmo se asemeja al de mxima pendiente, mientras que en las cercanas de la solucin i se puede ir reduciendo y el comportamiento del algoritmo se asemeja ms al de Newton. Algoritmo de Gauss
Mediante este mtodo evitamos el clculo de las derivadas segundas que en el caso del mtodo de Newton eran necesarias. Ello hace que la implementacin del algoritmo sea ms sencilla y requiera un coste computacional menor. Los elementos de la matriz Hessiana puede calcularse de la siguiente manera:
Si se desprecia el trmino en el que aparece como factor el error residual se obtiene una estimacin aproximada de los elementos de la matriz Hessiana de la siguiente forma:
En general, cuanto ms cerca se encuentra el punto de partida del ptimo de la funcin de coste, ms similares son el Algoritmo de Gauss y el de Newton.
Poseen la ventaja de que, en general, la convergencia est garantizada. Su inconveniente reside en la necesidad de un mayor nmero de iteraciones hasta alcanzar el ptimo, pues no recogen informacin del gradiente o las derivadas de orden superior de la funcin de coste. Algoritmo de bsqueda patrn
Es un mtodo de bsqueda secuencial que alterna de manera consecutiva movimientos de exploracin y extrapolacin, dando lugar a sucesivas estimaciones del vector
A partir de un punto base genrico k +1 y teniendo definida una base ortonormal P1, P2, ,
Pn Se toma la direccin P1 y se realiza un paso 1
k
b) Extrapolacin
Alrededor de este nuevo punto se realiza un nuevo movimiento de exploracin obtenindose un nuevo punto . o o
Si ( ) ( k ) se toma como nuevo punto base k +1 . Si ( ) > ( k ) se desecha la extrapolacin y se mantiene como punto base
k .
Cuando los movimientos de exploracin y extrapolacin son incapaces de reducir la funcin de coste, los pasos de la exploracin 1, 2,., n se hacen ms pequeos y se contina la secuencia, hasta que alcancen un valor mnimo escogido como criterio de terminacin. Mtodo Simplex
Es un mtodo de bsqueda secuencial basado en el concepto de simplex regular; figura geomtrica formada por (n+1) puntos equidistantes entre s. El algoritmo se basa en evaluar la funcin de coste en los vrtices de un simplex que va movindose por el espacio.
Para cada iteracin: Se evala la funcin de coste en cada uno de los vrtices del simplex v1 , v 2 ,..., v n Excluyendo el vrtice ms nuevo, se reemplaza el vrtice con mayor valor de la funcin de coste por su imagen especular respecto del centroide formado por los n vrtices restantes. Cuando un vrtice se encuentra en las cercanas del mnimo, permanecer siempre como vrtice del simplex mientras el resto de vrtices rotan a su alrededor. El chequeo de la edad de los vrtices del simplex permite reducir el tamao de la figura y refinar la bsqueda. Se evalan las edades de los vrtices; es decir, el nmero de iteraciones que un determinado vrtice ha formado parte del simplex. Si la edad de alguno de los vrtices es superior a un valor fijado de antemano, se reduce el tamao del simplex manteniendo el vrtice con menor funcin de coste. La estimacin del vector de parmetros desconocidos en cada iteracin es el punto central del simplex.
de iteraciones y el algoritmo no converja. A continuacin se citan los criterios vistos en clase y que han sido utilizados en la prctica:
2.- ( ) 1
3.-
de coste en una iteracin y la anterior sea menor que un cierto valor de tolerancia. 4 .-
tolerancia (recurdese que si el problema tiene solucin, el vector gradiente en el punto ptimo es nulo)
5.-
d ( ) d
i +1
d ( ) d
d ( ) d
i +1
En los Algoritmos de Bsqueda, donde existen variables de paso o tamao del simplex, se finalice si dichas variables se reducen por debajo de un cierto valor de tolerancia. Los criterios 3 y 4 son similares y pueden emplearse casi indistintamente. En la prctica se ha optado por imponer como criterio de parada el del gradiente, aunque para el algoritmo de mxima pendiente, se han implementado todos para entender ms a fondo su funcionamiento
10
11
E
Donde: M carga sobre la vagoneta. C constante de amortiguamiento. K constante de rigidez.
12
Se puede afirmar por tanto, que el sistema es lineal de 2 orden, el cual se supondr subamortiguado en todo momento. La frecuencia natural y el amortiguamiento relativo del sistema sern:
2 = 1 c = 2 k M
k M
La respuesta del sistema tiene la siguiente forma, por ser un sistema subamortiguado.
L(0) = 1m
1 = ( D cos(0) + F sin(0) +
E E D =1 donde E = k L0 M g k k
& L ( 0) = 0 & L = e t ( D cos( ' t ) + F sin( ' t ) + e t ( D ' sin( ' t ) + F ' cos( ' t ) & L(0) = D + F '
F ' = D F =
D '
13
Primeramente se presentar el trabajo realizado con el programa Microsoft Office Excel, donde se representa grficamente el ensayo realizado, a travs del cual se han recogido los datos de algunas elongaciones en distintos tiempos L(t ) gracias a un sensor de posicin. Se ver grficamente la variacin del modelo segn los parmetros C y K que se estimen, y finalmente utilizando la herramienta SOLVER llegaremos a los valores ptimos de los mismos.
Seguidamente, se presentarn los resultados a los que se ha llegado mediante la implementacin de los Mtodos de Optimizacin (Algoritmos de Gradiente y Algoritmos de Bsqueda) en MATLAB. Se mostrarn grficamente los caminos seguidos por cada programa hasta llegar al punto donde la funcin de coste toma el valor mnimo. Para esta situacin, se calcularn los valores de C y K (sern las coordenadas) y stos sern los parmetros ptimos.
0,8
ELONGACIN (m)
0,6
L medida(m)
0,4
0,2
TIEMPO (s)
14
Tras haber realizado el modelado que represente este sistema real, surge el problema de la estimacin de los parmetros C y K que ajusten de la mejor manera posible este modelo a los datos experimentales.
Como se observa en las siguientes grficas, si se les dan unos valores iniciales cualquiera a los parmetros C y K, la elongacin estimada gracias al modelo no se corresponde totalmente con los datos experimentales:
EVOLUCIN de la ELONGACIN
1,2
0,8
ELONGACIN (m)
0,6
0,4
0,2
TIEMPO (s)
valor del error residual de 0,197107577, que no es el error mnimo. Si utilizamos ahora la herramienta SOLVER del programa, conseguiremos minimizar este error y por tanto obtendremos los valores ptimos de C y K:
EVOLUCIN de la ELONGACIN
1,2
0,8
ELONGACIN (m)
0,6
0,4
0,2
TIEMPO (s)
15
Se puede apreciar que para la estimacin de las constantes C y K obtenida gracias a esta herramienta, el modelo matemtico predice casi exactamente la respuesta del sistema, existiendo muy poca diferencia entre los datos experimentales y las predicciones del modelo. Para este caso se han obtenido unos valores de C y K: error residual: 0,014711477.
Para la validacin de esta herramienta, se ha llevado a cabo la resolucin del modelo mediante el mtodo de Euler y, como se ve en el grfico siguiente, puede darse por vlido ya que ambas curvas se ajustan de forma muy buena a los datos experimentales.
EVOLUCIN de la ELONGACIN
1,2
0,8
ELONGACIN (m)
0,2
TIEMPO (s)
Otra cuestin es la de si estos datos experimentales se corresponden con la realidad fsica que se desea medir (cul es la magnitud de los errores de medida?
En el experimento llevado a cabo, se ha excitado el sistema mediante una entrada escaln y a continuacin, se han recogido datos sobre la posicin durante un cierto tiempo. Debido a que en la realidad fsica ningn instrumento de medicin posee una fiabilidad o exactitud infinitas, los datos experimentales registrados no sern exactos, sino que poseern un determinado error experimental. As, se puede considerar:
16
x (k ) = f (u (k ), ) + (k ) donde
x(k) - medida experimental en el instante k. u(k) - vector de entradas conocidas en el instante k. - vector de parmetros desconocidos n + 1 . (k) - error experimental o de medida en el instante k.
Cuanto ms precisos sean los instrumentos de medida, menos error habr entre los datos reales y los experimentales. Si estuviesen perfectamente calibrados, si aumentsemos el nmero de medidas, el error experimental terminara tendiendo a cero.
Por esta razn, lo mejor para asegurar la fiabilidad del modelo y la validez de la estimacin de las constantes C y K, hubiera sido repetir el experimento ms veces, recogiendo un mayor nmero de datos. Cuantos ms datos se dispusieran, menor sera el efecto de la variabilidad de los datos registrados por el sensor de posicin.
17
Para conseguir una combinacin adecuada de parmetro C y K, deberemos ejecutar el algoritmo varias veces, cada una con unas estimaciones iniciales distintas, hasta que una de ellas d lugar a un nmero menor de iteraciones. A continuacin se muestran las grficas obtenidas para cada uno de los algoritmos:
Algoritmos de GRADIENTE
Se apreciar ms cumpliendo el cuarto criterio (lo veremos con Marquardt) el pico que aparece en la grfica y se explicar a qu se debe.
18
ALGORITMO DE MARQUARDT
= 20 (Criterio Terminacin 1)
= 20 (Criterio Terminacin 4)
elevados, se comporta de la misma forma que el algoritmo de mxima pendiente. Cuando toma valores menores, el algoritmo pasa a funcionar como Newton. El pico que presenta la
grfica para =0.01 se debe al mnimo que presenta la funcin de coste. Un problema que presentan estos algoritmos es que la funcin de coste puede presentar varios mnimos locales. En ese caso no se puede asegurar que el punto hallado sea el ptimo de la funcin de coste salvo que se tomen una serie de medidas. En este sentido la funcin de coste del problema planteado slo tiene un mnimo.
19
ALGORITMO DE GAUSS
Algoritmos de BSQUEDA
MTODO SIMPLEX
Se aprecia que el Algoritmo Simplex es el que ms lentamente converge haca la solucin ptima, requiriendo un gran nmero de estimaciones para ello.
20
Coste computacional
Se ha medido el tiempo medio requerido por cada algoritmo para hallar la solucin ptima. Ello se ha conseguido cronometrando dicho tiempo mediante la herramienta tic toc de MATLAB. Se van a comparar los algoritmos de gradiente cuando utilizamos el cuarto criterio de terminacin (con el que llegamos al ptimo) y se vern tanto el tiempo como las iteraciones que han hecho falta. De todos se parte de las mismas estimaciones iniciales, con C=5600 y K=86000.
MTODO
Mxima Pendiente Newton Marquardt Gauss Bsqueda Patrn Simplex
Tiempo(segundos)
0.422086 0.078342 1.889464( =20) 0.108747( =0.01) 0.048111 0.809672 1.701572
Iteraciones
220 5 525(tipo mx pend.) 11(tipo Newton) 8 43 208
Tiempo/iteracin
0.0019186 0.0015668 0.003599 0.0098861 0.0060139 0.01882936 0.0081806
Al comparar los algoritmos de Newton-Rapshon y Gauss, se observa la ventaja que supone el empleo de un clculo aproximado de la matriz Hessiana en el coste computacional, ya que se logra reducir ste.
El mtodo Simplex es uno de los ms veloces en cuanto a coste computacional de cada operacin. No obstante se ven penalizados por el hecho de requerir un gran nmero de iteraciones hasta encontrar la solucin ptima. El algoritmo de Bsqueda de patrn es el ms lento.
21
Se mostrarn a continuacin, en cada caso particular, las trayectorias seguidas por cada algoritmo en la bsqueda de la solucin ptima.
Algoritmos de GRADIENTE
Algoritmo Newton
Marquardt =20
Marquardt =0.01
Algoritmo Gauss
22
Algoritmos de BSQUEDA
Representamos la unin entre los centros, es decir, los sucesivos valores que toma la funcin de coste en cada etapa.
23
Representamos los simplex enteros, para ver el procedimiento seguido de forma ms visual.
Se puede intuir de manera aproximada, fijndose tan slo en las trayectorias representadas, qu algoritmos son ms directos y dan lugar a un menor nmero de iteraciones en la bsqueda de la solucin ptima.
Mapas de Convergencia
La estructura del algoritmo es determinante para saber el nmero de iteraciones necesarias para que ste converja. Adems tambin es importante el alor de las parmetros desconocidos en la estimacin inicial. Par a conocer cunto deben valer estos parmetros para que el algoritmo converja, se utilizan los mapas de convergencia.
Debido a la falta de tiempo que he tenido para la realizacin de este punto de la prctica, no he podido obtener las zonas de convergencia de cada algoritmo. De todas formas, aunque no se haya llevado a cabo la implementacin de estos mapas, pueden comentarse, despus de habernos informado, algunos puntos de cmo seran stos para cada caso particular.
En el caso del algoritmo de Mxima pendiente, habr mucha diferencia en la rapidez de convergencia del algoritmo segn la estimacin inicial elegida. Los puntos en los que harn falta menos iteraciones para llegar al ptimo, sern aquellos pertenecientes a las tangentes del vector gradiente de la funcin de coste.
24
En resumen puede comentarse que este algoritmo posee la ventaja de que la direccin de movimiento es siempre una direccin de decremento de la funcin de coste. Como desventaja, el algoritmo puede ser lento y requerir un gran nmero de iteraciones hasta converger a la solucin ptima,. especialmente cuando los puntos se encuentran cerca del ptimo y la funcin de coste posee forma de valle poco pronunciado.
En cuanto al algoritmo de Newton puede comentarse el hecho de que la velocidad de convergencia es mayor que en el algoritmo anterior. sta adems aumentar considerablemente cuanto ms cerca se encuentre la estimacin inicial de la solucin del problema.
El algoritmo de Marquardt es uno de los algoritmos ms rpidos de todos los que se han empleado en la prctica. Ocurre igual que en Newton, donde la velocidad de convergencia ser mayor cuanto ms cerca del ptimo estimemos los valores iniciales. Como caracterstica del algoritmo de Marquardt, tendr la ventaja frente a Newton de que, para estimaciones iniciales lejanas, se comportar de forma similar al algoritmo de Mxima pendiente, acelerando la convergencia por tener importancia la direccin del vector gradiente (en sentido negativo).
Finalmente puede comentarse acerca del algoritmo de Gauss, que la novedad que introduce es la de una zona de convergencia ms uniforme. Como contrapartida se pierden las zonas de convergencia rpida que presentaban Newton y Marquardt, pero como ventaja no tenemos que preocuparnos tanto en la eleccin de la estimacin inicial, puesto que con todas se comportar de forma similar.
25
7.- CONCLUSIONES
Como se ha visto en las clases tericas, sabemos que resolver analticamente un sistema, como el de suspensin de la vagoneta presentada en la prctica, puede volverse muy pesado incluso con slo dos parmetros desconocidos y unos pocos datos experimentales. Adems, en la mayora de casos esto no es posible por tratarse de sistemas no lineales. Debido a ello, en la prctica se han empleado distintas tcnicas basadas en algoritmos que permiten ir acercndose a un mnimo de la funcin de coste en iteraciones sucesivas: Algoritmos de Gradiente y Algoritmos de Bsqueda. Gracias a ellos, no slo se ha logrado validar el modelo matemtico empleado, sino que se ha estimado el valor de los parmetros C y K que antes eran desconocidos. Puede concluirse que esta prctica nos ha proporcionado un mayor conocimiento de los mtodos de estimacin utilizados. Adems se ha conocido la herramienta Solver de Microsoft Office Excel, que permite estimar de una manera muy sencilla estos parmetros, siendo esta estimacin suficientemente vlida, como hemos comprobado. .
26