Optimizacion Sin Restricciones
Enviado por samuelmarcano1 • 21 de Junio de 2013 • 1.202 Palabras (5 Páginas) • 562 Visitas
MÉTODO de OPTIMIZACIÓN SIN RESTRICCIONES
Introducción……………………………………………………………………………………………………………… 1 pag
Métodos De Optimización Sin Restricciones……………………………………………………………… 2 pag
Método del Gradiente………………………………………………………………………………………………. 2 pag
Método del Gradiente Conjugado………………………….…………………………………………………. 2 pag
Método de Newton………………………………………………………………………………………………….. 3 pag
Métodos de Métrica Variable…………………………………………………………………………………… 3 pag
Metodo DFP (Davidon-Fletcher-Powell)……………………………………………………………………. 4 pag
Métodos de Métrica Variable…………………………………………………………………………………… 5 pag
Método de Newton……………..…………………………………………………………………………………… 5 pag
Metodo DFP (Davidon-Fletcher-Powell)……………………………………………………………………. 6 pag
Métodos cuasi-Newton…………………………………………………………………………………………….. 7 pag
Referencias Bibliográficas…………………………………………………………………………………………. 8 pag
Anexos……………………………………………………………………………………………………………………… 9 pag
Introducción
Desde el punto de vista matemático, en los siglos XVII y XVIII, Newton, Leibnitz, Bernoulli y Lagrange, trabajaron en obtener máximos y mínimos condicionas de ciertas funciones. El matemático francés Jean Baptiste-Joseph Fourier esbozó métodos de la actual programación lineal. Y en los últimos años del siglo XVIII, Gaspar Monge asentó los precedentes del Método Gráfico gracias a su desarrollo de la Geometría Descriptiva.
Métodos De Optimización Sin Restricciones.
En optimización sin restricciones es menos complicada que con restricciones se minimiza una función objetivo que depende de variables reales sin restricciones sobre los valores de esas variables.
Muchos métodos se basan en los conceptos de la programación lineal y la optimización sin restricciones.
Método del Gradiente.
Reseña Histórica.
Otro de los operadores o métodos propuestos para la detección de bordes, lo propuso J. Canny en 1993.
El descubrimiento de bordes es tratado como un problema de procesado de señales y dirigido a diseñar el operador óptimo.
La función objetivo se diseñó de forma que se obtuviese la optimización en los siguientes supuestos:
• Maximizar la relación señal ruido con objeto de obtener una buena detección.
• Minimizar el número de respuestas sobre bordes simples.
Después de un cierto análisis, Canny determinó que la función objetivo se podía describir como la suma de 4 términos exponenciales. Al final, esta función presenta un gran parecido a la primera derivada de una Gaussiana, así que ésta es la que se utiliza.
En que consiste el método.
Consiste en un segmento de línea, si un punto presenta un valor de gradiente superior el punto de corte superior, es aceptado inmediatamente como punto de borde. Si ese valor es más pequeño que el punto de corte inferior, el punto en cuestión es desestimado. Puntos cuyo valor de gradiente se encuentra entre los puntos de corte, son considerados como bordes, si se encuentran conectados a puntos que ya han sido aceptados como puntos de bordes. Esto viene a significar que, cuando empezamos un borde, no paramos hasta que el gradiente ha descendido un considerable valor.
Método del Gradiente Conjugado.
Reseña Histórica.
La teoría de métodos estacionarios se estableció sólidamente con la investigación de D.M. Young, que empezó en la década de 1950. El método del gradiente conjugado se inventó en esa misma década, con desarrollos independientes de Cornelius Lanczos, Magnus Hestenes y Eduard Stiefel, pero su funcionalidad se puso de entre dicho en esa época. Sólo en la década de 1970 se puso de manifiesto que estos métodos funcionan muy bien para resolver ecuaciones de derivadas parciales, especialmente del tipo elíptico.
En que consiste el método.
Es la solución numérica de sistemas particulares de ecuaciones lineales, principalmente aquellos cuya matriz es simétrica y definida positiva, y el cual tiene amplia acogida pues aprovecha muy bien la estructura de la matriz, además de tener muy buenas propiedades de estabilidad numérica. Esta
...