The Second Workshop on Advances in Evolutionary Computation (WAEC 2016) will present current progresses on evolutionary computation and related areas. We intend to provide a framework for fruitful and informal discussion on current state of the art topics in EC.
Participation in WAEC is free and open to anyone interested.
If you intend to present a work please submit a title and an abstract (up to 1000 words) using the button bellow.
Please consider registering using the button bellow so we can have an idea of how many participants we will have.
Introduction of the speakers and workshop organization.
El término Inteligencia Artificial (IA) aparece en el año 1956 en la designación del proyecto propuesto en la conferencia del Dartmouth College del mismo año. El objetivo, lograr la simulación de procesos que caracterizan a la inteligencia humana, tales como el razonamiento, la
abstracción y el aprendizaje. El resultado principal ha estado asociado a
la creación de modelos computacionales para el procesamiento simbólico, en
particular lógico, en la solución de problemas.
La determinación de resolver problemas semidecidibles o intratables con
información completa o incompleta y/o incierta ha sido un factor decisivo
en la creación de otros modelos de computación (conexionista, difuso,
probabilista, evolutiva, etc.) para los cuales se han acuñado diversos
nombres, siendo el más utilizado actualmente el de inteligencia
computacional (IC).
Se analizan algunas opiniones actuales sobre el rol y la relación entre
los modelos de computación de la IA y de la IC y el autor expondrá su
tesis de que no todos los modelos de la IC caraterizan aspectos de la
inteligencia humana sino más bien, si se quiere llamarlo así, una
inteligencia (netamente) computacional.
A multi-modal search space can be defined as having multiple attraction basins – each basin has a single local optimum which is reached from all points in that basin when greedy local search is used. Optimization in multi-modal search spaces can then be viewed as a two-phase process. The first phase is exploration in which the most promising attraction basin is identified. The second phase is exploitation in which the best solution (i.e. the local optimum) within the previously identified attraction basin is attained.
Finding good solutions for multi-modal optimization problems depends mainly on the efficacy of exploration. Effective exploration depends on the ability to sample many attraction basins and to select the best ones. The selection of the best attraction basins, from (random) sample solutions representing different basins, relies on the accuracy of the comparisons among these solutions.
These comparisons implicitly assume that the fittest sample solutions belong to the best/fittest attraction basins. However, if any of the attraction basins have been oversampled, then this may lead to biased comparisons which can then lead to a biased exploration.
Thresheld Convergence is a recently developed diversification technique designed to avoid this bias by setting a minimum search step. If small/local search steps are avoided during the exploration phase, then the chances of oversampling an attraction basin are reduced. The goal of Thresheld Convergence is to improve the performance of search techniques during the first phase of exploration. The effectiveness of Thresheld Convergence has been demonstrated through applications to existing metaheuristics such as particle swarm optimization and differential evolution, and through the development of novel metaheuristics such as minimum population search and leaders and followers.
Los algoritmos con estimación de distribuciones, conocidos por Estimation of Distribution Algorithms (EDA), son algoritmos de optimización estocásticos de caja negra que se caracterizan por el uso explícito de distribuciones de probabilidad para explorar el espacio de búsqueda. El espacio de búsqueda es explorado por un procedimiento iterativo que estima y simula un modelo gráfico probabilístico que se construye generalmente a partir de las mejores soluciones. El uso de los modelos gráficos probabilísticos basados en cópulas, permite el tratamiento por separado de las propiedades estadísticas de las variables y su estructura de dependencia, lo que contrasta con la manera usual de construir distribuciones n-dimensionales donde las marginales son generalmente de la misma distribución. La mayoría de las cópulas están definidas para el caso bivariado; si son n-dimensionales, cuentan con uno o dos parámetros para caracterizar la fuerza de la dependencia entre todas las variables. Una de las soluciones para estas limitantes es la construcción de cópulas multivariadas a partir de una secuencia de árboles anidados llamados R-vines. Los R-vines se utilizan para organizar diferentes descomposiciones de la cópula multivariada en cópulas bivariadas. El principal atractivo de los vines para EDA es que estos modelos proveen una representación muy flexible de las distribuciones de búsqueda.
El problema de acoplamiento molecular es calcular computacionalmente la mínima energía requerida para que una macromolécula (proteína) y una molécula pequeña (ligando) se acoplen, conociendo el sitio de acoplamiento y la estructura tridimensional de ambas. Este trabajo pretende mostrar las bondades de los EDA basados en vines para resolver el problema de acoplamiento molecular tomando como muestra un conjunto de 100 complejos moleculares. Para validar los resultados se compara con otros EDA con buenos resultados en la bibliografía.
Presentations by students of the Universidad de La Habana and the Universidade Federal Fluminense.
Análisis de la aplicación de técnicas evolutivas y clásicas de optimización a un problema de diseño no lineal con muchas especificaciones, donde hemos caracterizado el comportamiento de diferentes técnicas y las propiedades de la función propuesta. El análisis comparativo sobre este problema ha permitido explorar las propiedades de diferentes estrategias y las configuraciones posibles. El tamaño del problema, en términos del número de situaciones de diseño, M, se utilizó para escalar el análisis, con unos resultados que han mostrado que la aplicación de técnicas multiobjetivo depende críticamente de los operadores particulares empleados a medida que crece la dimensionalidad del problema. El operador de comparación basado en dominancia, orientado a favorecer la presencia de elementos del conjunto de Pareto en la población final, se encuentra con muchas dificultades a medida que se enfrenta a más objetivos. Llega un momento en que pesa más el criterio adicional de selección de individuos por su distribución en el frente que su valor de dominancia (strengh), de modo que la diferencia entre SPEA2 y NSGA-II viene dado por su heurística para determinar una distribución amplia de la muestra del conjunto de Pareto. SPEA2 tiene un comportamiento muy errático, con una ordenación por dominancia y estimación de la densidad de individuos, mientras que NSGA-II, que explora una distribución uniforme a lo largo de los objetivos individualmente evaluados (distancia de “crowding”), favorece el sesgo hacia soluciones en los extremos, y le permite superar el problema de la dimensionalidad asegurando la existencia de soluciones aceptables. En cuanto a las estrategias de combinación de objetivos para el cumplimiento de especificaciones, se ha comparado la heurística propuesta WCES (Worst-case Aggregation Evolution Strategy) con respecto a una suma directa de todos los valores. Esta heurística explota el comportamiento similar en todas las magnitudes evaluadas en diferentes situaciones, puesto que el compromiso es similar y tenemos alta correlación entre los objetivos. Los resultados han mostrado ventajas claras en términos de prestaciones y carga computacional con respecto a otras soluciones o configuraciones posibles. Por último, la justificación de las técnicas evolutivas para este problema de diseño ha quedado patente con el análisis de la distribución de mínimos locales de la función y el comportamiento de una técnica clásica de búsqueda de gradiente. La búsqueda de gradiente logra soluciones aceptables únicamente en el 30% de los casos, siempre inferiores a las alcanzadas por WCES y NSGA-II, y con un coste de hasta 10 veces mayor.
San Lázaro y L, Plaza. La Habana 10400 Cuba.
WAEC is organized under the scope of Carlos Chagas Filho Research Support Foundation (FAPERJ) APQ1 Projects 211.500/2015 and 211.451/2015 and with support of the Institute of Computing of the Universidade Federal Fluminense, the Institute of Mathematics and Statistics of the Universidade do Estado do Rio de Janeiro, the Computer Science Department of the Universidad Carlos III de Madrid and the Faculty of Mathematics and Computer Science of the Universidad de La Habana.