¿Qué tipos de optimización realiza el posicionamiento natural?

Inicio » ¿Qué tipos de optimización realiza el posicionamiento natural?

Optimización de Pareto

problemas de optimización de Pareto. En general, todas las funciones \ (f_i, h_j) y \ (g_k) son no lineales. En el caso especial de que todas estas funciones sean lineales, el problema de optimización se convierte en un problema de programación lineal que puede resolverse mediante el método estándar

Obviamente, el caso más sencillo de optimización es la optimización de funciones sin restricciones. Por ejemplo, las funciones de prueba multivariadas y multimodales se utilizan a menudo para validar nuevos algoritmos de optimización, y un buen ejemplo es la función de Ackley (véase la Fig. 1) que tiene un mínimo global \ (f_{min}=0\) en (0,0).

Para resolver el problema de optimización (1), se necesitan algoritmos de búsqueda u optimización eficientes. Existen muchos algoritmos de optimización que se pueden clasificar de muchas maneras, dependiendo del enfoque y las características.

Si el enfoque es la derivada o el gradiente de una función, la optimización se puede clasificar en algoritmos basados en el gradiente y algoritmos sin derivada o sin gradiente. Los algoritmos basados en el gradiente, como el hill-climbing, utilizan la información de la derivada y suelen ser muy eficientes. Los algoritmos sin derivadas no utilizan ninguna información derivada, pero

Técnicas de optimización aplicadas

El aprendizaje automático, en su forma más reducida, se denomina a veces ajuste de curvas glorificado. En cierto modo, es cierto. Los modelos de aprendizaje automático suelen basarse en los principios de convergencia, es decir, en el ajuste de los datos al modelo. Si este enfoque conducirá a la AGI sigue siendo un tema discutible. Sin embargo, por ahora, las redes neuronales profundas son la mejor solución posible, y utilizan métodos de optimización para llegar al objetivo.

Los métodos de optimización fundamentales se suelen clasificar en métodos de optimización de primer orden, de alto orden y sin derivadas. Normalmente nos encontramos con métodos que entran en la categoría de optimización de primer orden, como el descenso de gradiente y sus variantes.

El método de descenso del gradiente es el método de optimización más popular. La idea de este método es actualizar las variables de forma iterativa en la dirección (opuesta) de los gradientes de la función objetivo. Con cada actualización, este método guía al modelo para encontrar el objetivo y converger gradualmente al valor óptimo de la función objetivo.

Optimización multiobjetivo

ResumenSe han introducido muchos algoritmos de optimización de enjambre desde principios de los años 60, desde la Programación Evolutiva hasta el más reciente, la Optimización del Lobo Gris. Todos estos algoritmos han demostrado su potencial para resolver muchos problemas de optimización. Este artículo ofrece un estudio en profundidad de los algoritmos de optimización más conocidos. Los algoritmos seleccionados se explican brevemente y se comparan entre sí de forma exhaustiva mediante experimentos realizados con treinta funciones de referencia muy conocidas. También se discuten sus ventajas y desventajas. A continuación, se llevan a cabo una serie de pruebas estadísticas para determinar los rendimientos significativos. Los resultados indican la ventaja global de la Evolución Diferencial (ED) y es seguida de cerca por la Optimización por Enjambre de Partículas (PSO), en comparación con otros enfoques considerados.

IntroducciónLa Inteligencia de Enjambre (IS) ha despertado el interés de muchos investigadores en diversos campos. Bonabeau definió la IS como «la inteligencia colectiva emergente de grupos de agentes simples» [1]. La IS es el comportamiento de la inteligencia colectiva de sistemas autoorganizados y descentralizados, por ejemplo, grupos artificiales de agentes simples. Algunos ejemplos de IS son el forrajeo en grupo de los insectos sociales, el transporte cooperativo, la construcción de nidos de los insectos sociales y la clasificación y agrupación colectivas. Dos conceptos fundamentales que se consideran propiedades necesarias de la IS son la autoorganización y la división del trabajo. La autoorganización se define como la capacidad de un sistema para hacer evolucionar sus agentes o componentes hacia una forma adecuada sin ninguna ayuda externa. Bonabeau et al. [1] también afirmaron que la autoorganización se basa en cuatro propiedades fundamentales de retroalimentación positiva, retroalimentación negativa, fluctuaciones e interacciones múltiples. Las retroalimentaciones positivas y negativas son útiles para la amplificación y la estabilización, respectivamente. Las fluctuaciones, por su parte, son útiles para la aleatoriedad. Las interacciones múltiples se producen cuando los enjambres comparten información entre ellos dentro de su área de búsqueda. La segunda propiedad de la IS es la división del trabajo, que se define como la ejecución simultánea de varias tareas simples y factibles por parte de los individuos. Esta división permite al enjambre abordar problemas complejos que requieren el trabajo conjunto de los individuos [1].

Tipos de problemas de optimización

ResumenEn casi ningún otro campo de la informática, la idea de utilizar paradigmas de búsqueda bioinspirados ha sido tan útil como en la resolución de problemas de optimización multiobjetivo. La idea de utilizar una población de agentes de búsqueda que se aproximan colectivamente al frente de Pareto se corresponde con los procesos de la evolución natural, los sistemas inmunitarios y la inteligencia de enjambre. Métodos como NSGA-II, SPEA2, SMS-EMOA, MOPSO y MOEA/D se han convertido en solucionadores estándar a la hora de resolver problemas de optimización multiobjetivo. En este tutorial se repasarán algunos de los fundamentos más importantes de la optimización multiobjetivo y, a continuación, se presentarán algoritmos representativos, se ilustrarán sus principios de funcionamiento y se discutirá su ámbito de aplicación. Además, el tutorial analizará la evaluación estadística del rendimiento. Por último, se destacan importantes tendencias recientes y campos de investigación estrechamente relacionados. El tutorial está dirigido a los lectores que deseen adquirir conocimientos básicos sobre los fundamentos matemáticos de la optimización multiobjetivo y los métodos más avanzados de la optimización evolutiva multiobjetivo. El objetivo es proporcionar un punto de partida para la investigación en esta área activa, y también debería ayudar al lector avanzado a identificar temas de investigación abiertos.

Scroll al inicio
Ir arriba