Cursos

Introducción a la mecánica discreta - Javier Fernandez (IB-UNCuyo, Bariloche)

La Mecánica Clásica permite modelar la mayor parte del universo macroscópico que nos rodea, desde el movimiento de las estrellas y satélites hasta el del brazo que controla el cierre de la puerta de entrada en un edificio. Desde el siglo XVII, la herramienta básica para describir la evolución temporal de un sistema mecánico ha sido la ecuación de Newton F = m a, que es una ecuación diferencial ordinaria, cuya solución determina dicha evolución. Esto lleva naturalmente al problema de resolver estas ecuaciones que, en muchas situaciones realistas, puede ser un problema bastante complejo (por ejemplo, el sistema Sol-Tierra-Luna lleva a un sistema de 9 ecuaciones acopladas). Otras descripciones se han dado de la Mecánica Clásica: la Mecánica Lagrangiana describe las trayectorias de los sistemas como ciertas curvas que, en algún sentido, minimizan una función, llamada acción. Este cambio de foco permite hacer un estudio cualitativo profundo de los sistemas mecánicos pero, sin embargo, no permite avanzar mucho en los problemas concretos de hallar las trayectorias del sistema en función del tiempo.

Por cierto, una manera de avanzar en hallar las soluciones de la ecuación de Newton es el uso de métodos numéricos que proveen aproximaciones concretas a dichas soluciones. Una limitación de muchos métodos numéricos es que sus soluciones no suelen respetar cuestiones físicas fundamentales (conservación de la energía o momentos) lo que los hace inviables para el estudio de la evolución del sistema a tiempos prolongados.

La Mecánica Discreta permite modelar sistemas que evolucionan con tiempo discreto y cuyas trayectorias quedan determinadas a través de un principio variacional análogo al de la Mecánica Lagrangiana. En concreto, las trayectorias quedan descriptas a través de ecuaciones en diferencias (en lugar de ecuaciones diferenciales), lo que permite la resolución concreta de las mismas. Cuando un sistema mecánico discreto proviene de un sistama mecánico continuo, las soluciones de las ecuaciones en diferencias son aproximaciones de las soluciones de la ecuación de Newton. Más aún, por su origen variacional, se puede ver que preservan una cantidad de magnitudes físicas relevantes, lo que las vuelve de gran interés práctico.

En estas charlas introduciremos las ideas básicas de la Mecánica Clásica, especialmente en su formulación Lagrangiana, para luego describir la Mecánica discreta y ver cómo obtener integradores numéricos que conserven magnitudes físicas relevantes.

En cuanto a los pre-requisitos, no supondremos un conocimiento previo de Física, más allá de lo que uno aprendió en los primeros 17 años de vida... Tampoco supondremos conocimientos de Geometría Diferencial (que es el marco habitual para los temas que se desarrollarán) ya que trataremos de circunscribirnos a trabajar en R^n con las herramientas del Cálculo en varias variables.


Optimización dinámica - Marcela Zuccalli (UNLP, La Plata)

La optimización dinámica, como su nombre lo indica, estudia la optimización de sistemas dinámicos, es decir, la optimización de sistemas que evolucionan con el tiempo. Dado un sistema que evoluciona en el tiempo, es usual tratar de controlarlo de manera óptima a lo largo de un horizonte temporal dado, de acuerdo a un objetivo previamente fijado.

Se puede considerar que la optimización dinámica tiene sus raíces en el cálculo de variaciones, la teoría clásica de control y la programación lineal y no lineal.

El cálculo de variaciones surgió en el siglo XVIII y con los trabajos de Euler (1707-1783) y de Lagrange (1736-1813) adquirió la forma de una teoría matemática rigurosa. Tras algunos trabajos previos, Euler publicó en 1744 el libro "Método de búsqueda de líneas curvas con propiedades de máximo o mínimo, o la resolución del problema isoperimétrico tomado en su sentido más amplio", que es el primer libro en la historia sobre cálculo de variaciones. En 1755 Lagrange comunicó a Euler el método general analítico que había definido, en el que introduce la variación de una función  y en donde extiende a las variaciones las reglas del cálculo diferencial. Otros importantes aportes al cálculo de variaciones se deben a Legendre (1752-1833), Jacobi (1804-1851), Hamilton (1895-1897) y Weierstrass (1815-1897) entre otros. El cálculo de variaciones se aplicó en diversas disciplinas y de manera particularmente fundamental en física, especialmente en mecánica.

El desarrollo sistemático de la teoría de control se inició en Estados Unidos en 1930, en el campo de las ingenierías eléctrica y mecánica. Luego tuvo un fuerte impulso durante el transcurso de la segunda guerra mundial. En la primera etapa, los diseños de control buscaban evitar la inestabilidad de ciertos sistemas mientras que, en una segunda etapa, se priorizó la transición a la quietud. Los conceptos de controlabilidad y observabilidad introducidos por Kalman (1960), así como los métodos de optimización de Bellman (1957) y Pontryagin (1962) fueron el origen de lo que se conoce como la teoría moderna de control o control óptimo. Estas ideas no sólo se aplican en la ingeniería y la física, sino también en la biología, la economía y la medicina.

Nuestro objetivo es introducirnos en el mundo de la optimización dinámica.

En primer lugar, vamos a considerar el problema básico del cálculo de variaciones y algunas de sus generalizaciones. Luego, vamos a presentar un problema tipo de control óptimo en tiempo continuo y el principio del máximo de Pontryagin, que es la herramienta fundamental para obtener soluciones óptimas en este marco. Por último, vamos a considerar el problema básico de control óptimo en tiempo discreto y un método para obtener su solución óptima, conocido como programación dinámica de Bellman.

El pre-requisito es conocer el cálculo diferencial en varias variables.