martes, 29 de junio de 2010
Integrantes del Blog
Métodos de Variaciones Cíclicas
Variaciones Cíclicas: (Serie temporales) se refiere a las oscilaciones de larga duración alrededor de la recta o curva de tendencia; estos ciclos, como se llaman a veces, pueden ser o no periódicos, es decir, puede seguir o no exactamente caminos analógicos después de intervalos de tiempo iguales.
Se caracterizan por tener lapsos de expansión y contracción. En general, los movimientos se consideran cíclicos solo si se produce en un intervalo de tiempo superior al año (3). En el Gráfico los movimientos cíclicos alrededor de la curva de tendencia están trazados en negrita.
Tratamos de hacer predicciones sobre esa magnitud, teniendo en cuenta sus características históricas o del pasado
Ejemplo para las variaciones cíclicas.
Supongamos que tenemos las ventas trimestrales de un supermercado en el período 1990-1994, expresadas en millones de pesetas constantes del año 1990.
Métodos para determinar la tendencia de las variaciones cíclicas
1º) METODO GRAFICO
a) Se efectúa la representación gráfica de la serie ordenada Yt
b) Se unen mediante segmentos rectilíneos todos los puntos altos de la serie, obteniéndose una poligonal de cimas
c) Se realiza lo mismo con los puntos bajos, obteniéndose la línea poligonal de fondos
d) Se trazan perpendiculares al eje de abscisas por los puntos cimas y fondos.
e) La tendencia viene dada por la línea amortiguada que une los puntos medios de los segmentos
2º) METODO DE LAS MEDIAS MOVILES
*** Empleando 3 observaciones
a) Partimos de la serie temporal observada Yt.
b) Se obtienen sucesivas medias aritméticas para cada Yt, con un número de observaciones anteriores y posteriores fijado de antemano
- Si el número de observaciones es impar la media Yt, está centrada y coincide con el período t
c) La serie formada por las medias de Yt, nos indica la línea amortiguada de la tendencia 6 .
*** Empleando 4 observaciones
a) Partimos de la serie temporal observada Yt.
b) Se obtienen las sucesivas medias aritméticas Si el número de observaciones empleados para obtener la media es par, yt no está centrada y no coincide con el período t, y habrá que volver a calcular una nueva media aritmética yt, utilizando los yt, obteniendo de esta manera una nueva serie de medias móviles centradas.
Como se puede observar la serie de las medias obtenidas no está centrada, y debemos obtener una nueva serie de medias centradas, a partir de la serie “ descentrada ”
a) La serie formada por Yt, nos indica la línea amortiguada de la tendencia
3º) MÉTODO ANALÍTICO DE LOS MÍNIMOS CUADRADOS
a) Obtendremos la tendencia a partir de la recta Yt= a+ bt, siendo Yt, la media anual de las observaciones trimestrales de los casos anteriores.
b) Calculamos los coeficientes “a” y “b” de la recta de regresión.
Deshaciendo el cambio de variable, tendremos la siguiente predicción de la tendencia
Mètodo de Bùsquedas Multidimencionales
a) Downhill simplex
En el método downhill simplex, cada punto de un simplex representa una posible solución del problema. El simplex correspondiente a una función de N variables se representa por una matriz de (N+1)xN. Cada columna de la matriz contiene las N coordenadas de un vértice
El algoritmo consiste en la búsqueda de un mínimo siguiendo una sucesión de operaciones sobre el simplex: expansión, contracción, y reflexión. Primero se localiza el vértice nmax donde la función objetivo f toma el valor máximo, y se lo refleja respecto de la cara opuesta del simplex determinando un nuevo punto n prueba. Se evalúa la función en una serie de puntos que pertenezcan a la recta perpendicular a dicha cara y que contiene a n prueba.
Si en alguno de esos puntos, la función toma un valor menor que f(nmax), entonces ese punto
reemplaza a nmax en el simplex. En caso contrario, se conserva el simplex original y se lo contrae en todas las direcciones alrededor del mínimo y se vuelve a ejecutar el algoritmo. El método invariablemente converge a un mínimo luego de una serie de contracciones.
b) Algoritmos genéticos
El método de optimización por algoritmos genéticos simula un proceso de evolución y selección natural en una población de individuos. Cada individuo de la población representa una posible solución. Por otra parte, un cromosoma caracteriza a un individuo y está formado por un conjunto de genes, cada uno de los cuales es un parámetro de optimización.
Métodos geométricos
El método geométrico consiste en suponer que el crecimiento de una comunidad es en todo instante proporcional a su población, es decir que responde a la ecuación:

Métodos lógicos
La optimización lógica mediante eliminación de redundancias tiene una aplicación muy limitada. Esto es debido a que no es una técnica completa, en el sentido de que una vez que se han eliminado todas las redundancias de un circuito no es posible continuar optimizándolo mediante esta técnica. Para obtener un algoritmo general de optimización, la eliminación de redundancias se puede completar con su operación inversa: la adición de redundancias. Esta operación inversa tiene por objetivo la creación de nuevas redundancias, de forma que, tras la eliminación de estas últimas, el circuito presenta menor área o menor retraso o ambas cosas a la vez.
Búsqueda Aleatoria
Este método se basa en la generación de una secuencia de aproximaciones mejoradas al mínimo, cada una de las cuales se deriva de la aproximación previa. Entonces, si xi es la aproximación al mínimo obtenida en la etapa (o iteración) (i − 1), la nueva aproximación en la etapa i se obtiene de: xi+1 = xi + λui donde λ es una longitud de paso (valor escalar), ui es un vector aleatorio unitario generado en la i- esima etapa.
Algunas de las ventajas de los métodos de búsqueda aleatoria son las siguientes:
Estos métodos funcionan aunque la función objetivo sea discontinua y no diferenciable en alguno de sus puntos. Estos métodos pueden usarse para encontrar el mínimo global cuando la función objetivo posee varios mínimos relativos.
Estos métodos son aplicables cuando otros métodos fallan debido a dificultades locales tales como funciones con formas determinadas y regiones de búsqueda difíciles de explorar. Aunque estos métodos no son muy eficientes, pueden usarse en las etapas iniciales de la optimización para detectar la región donde es más probable encontrar el mínimo global. Una vez localizada esta región, puede usarse una técnica más eficiente para ubicar con mayor precisión el mínimo global.
Procedimientos de aproximación estocásticos
Búsqueda en forma de malla
Método de búsqueda patrón: Hooke – Jeeves
La idea básica del algoritmo de Hooke-Jeeves es combinar movimientos “exploratorios” del tipo una-variable-a-la-vez con movimientos de “patrones” o aceleraciones, los cuales se regulan mediante algunas reglas heurísticas.
Los movimientos exploratorios examinan la vecindad del punto actual para encontrar el mejor punto alrededor del mismo. Posteriormente, se usan estos dos puntos (el actual y el mejor en su vecindad) para realizar un movimiento de “patrones”.
De tal forma, los movimientos exploratorios examinan el comportamiento local de la función y buscan localizar la dirección de cualquier pendiente existente en la zona. Los movimientos de patrones utilizan la información generada en la exploración para escalar rápidamente las pendientes.
_ Se parte de un punto P0 y N direcciones (por ejemplo, base del espacio) (ui) arbitrarios
_ Se calculan los Pi, mínimos a lo largo de ui
_ Se elimina u1 y se añade nuevo uN = PN - P0
_ Nuevo P0 es mínimo a lo largo de nuevo uN
_ Direcciones se van haciendo conjugadas, y se llega a mínimo de forma cuadrática tras N iteraciones del ciclo
_ Problema de tendencia a dependencia lineal de (ui) (convergencia a mínimo de un subespacio):
_ Re inicialización de (ui) tras ≈ N iteraciones
_ Powell: Eliminación (salvo excepciones) de dirección en que f disminuyó más en lugar de u1; pérdida de direcciones conjugadas (y de convergencia cuadrática)
Proceso interactivo de modelo de primer orden ajustado para acceder a las cercanías del óptimo. Esto se logra realizando un conjunto de experimentos que requieren llamar al modelo de simulación con puntos de operación definidos en la dirección dada por el signo de los coeficientes del modelo ajustado, con incremento en las variables proporcionales a la magnitud de los coeficientes. Lo anterior se realiza mientras exista mejoramiento de la respuesta o hasta encontrarse con una restricción, debido a que, si se encuentra una restrincion, los experimentos deben realizarse a través de la dirección impuesta por el vector director de la misma. El mejor punto encontrado en la trayectoria de búsqueda se toma como el punto central para un nuevo diseño experimental.
Método de Newton – Raphson
Xn+1 = f(Xn) / f ‘ (Xn). Donde f ‘ denota la derivada de f.
El método de Davidon-Fletcher-Powell ha sido y sigue siendo una técnica de gradiente ampliamente utilizada. El método tiende a ser robusto; esto es, típicamente tiende a tener un buen comportamiento en una amplia variedad de problemas prácticas. La mayor desventaja de este tipo de métodos es su necesidad de almacenar la matriz A de N × N. Una de las dificultades practicas comunes de estos métodos es la tendencia de A(k+1) a estar mal condicionada, lo que causa una mayor dependencia a un procedimiento de re inicialización.
Es un método para solucionar un libre optimización no lineal problema. El método de BFGS se deriva de Método del neutonio en la optimización, usa técnicas que busca punto inmóvil de una función, donde gradiente es 0. El método del neutonio asume que la función se puede localmente aproximar como ecuación cuadrática en la región alrededor del grado óptimo, y utiliza los primeros y segundos derivados para encontrar el punto inmóvil.
Método de Fletcher – Reeves
Corresponde a la versión del método del gradiente conjugado en el caso de una función f general. La iteración se define de la siguiente manera:

Dado que este proceso de generación de muestras es un proceso markoviano donde la distribución estacionaria es la distribución posterior de la cual se pretende extraer las muestras, se deben descartar los valores generados al comienzo del proceso. Este es un problema complejo pero se acostumbra eliminar los primeros 1000 valores y generar 5000 valores o más.