Second Workshop on Advances in Evolutionary Computation (WAEC 2016)

Honoring Prof. Luciano García on his 80th Birthday

Organized by

Prof. Nayat Sánchez Pi (IME/UERJ) and

Prof. Luis Martí (IC/UFF)

Havana, Cuba. April 18th, 2016

University of Havana

The Second Workshop on Advances in Evolutionary Computation (WAEC 2016) will present current progresses on evolutionary computation and related areas. We intend to provide a framework for fruitful and informal discussion on current state of the art topics in EC.

Topics of interest:

  • Evolutionary Computation
  • Computational Intelligence
  • Artificial Intelligence
  • Machine Learning
  • Agents and Complex Systems
  • Bioinformatics
  • Information Technology
  • Social Networks
  • Artificial Life and Application
  • Distributed Systems
  • Multi Agent Systems
  • Human Centric Systems
  • Real World Applications

Important dates

  • Submission deadline: April 8th, 2016
  • Registration deadline: April 11th, 2016
  • Workshop date (WAEC 2016): April 18th, 2016

Submission and registration

Participation in WAEC is free and open to anyone interested.

If you intend to present a work please submit a title and an abstract (up to 1000 words) using the button bellow.

Please consider registering using the button bellow so we can have an idea of how many participants we will have.

Programme

April 18th, 2016

Introduction of the speakers and workshop organization.

Inteligencia Artificial e Inteligencia Computacional en el 60 Aniversario de la Inteligencia Artificial

El término Inteligencia Artificial (IA) aparece en el año 1956 en la designación del proyecto propuesto en la conferencia del Dartmouth College del mismo año. El objetivo, lograr la simulación de procesos que caracterizan a la inteligencia humana, tales como el razonamiento, la
abstracción y el aprendizaje. El resultado principal ha estado asociado a
la creación de modelos computacionales para el procesamiento simbólico, en
particular lógico, en la solución de problemas.

La determinación de resolver problemas semidecidibles o intratables con
información completa o incompleta y/o incierta ha sido un factor decisivo
en la creación de otros modelos de computación (conexionista, difuso,
probabilista, evolutiva, etc.) para los cuales se han acuñado diversos
nombres, siendo el más utilizado actualmente el de inteligencia
computacional (IC).

Se analizan algunas opiniones actuales sobre el rol y la relación entre
los modelos de computación de la IA y de la IC y el autor expondrá su
tesis de que no todos los modelos de la IC caraterizan aspectos de la
inteligencia humana sino más bien, si se quiere llamarlo así, una
inteligencia (netamente) computacional.

Thresheld Convergence, a new technique for avoiding bias in multi-modal search spaces.

A multi-modal search space can be defined as having multiple attraction basins – each basin has a single local optimum which is reached from all points in that basin when greedy local search is used. Optimization in multi-modal search spaces can then be viewed as a two-phase process. The first phase is exploration in which the most promising attraction basin is identified. The second phase is exploitation in which the best solution (i.e. the local optimum) within the previously identified attraction basin is attained.

Finding good solutions for multi-modal optimization problems depends mainly on the efficacy of exploration. Effective exploration depends on the ability to sample many attraction basins and to select the best ones. The selection of the best attraction basins, from (random) sample solutions representing different basins, relies on the accuracy of the comparisons among these solutions.

These comparisons implicitly assume that the fittest sample solutions belong to the best/fittest attraction basins. However, if any of the attraction basins have been oversampled, then this may lead to biased comparisons which can then lead to a biased exploration.

Thresheld Convergence is a recently developed diversification technique designed to avoid this bias by setting a minimum search step. If small/local search steps are avoided during the exploration phase, then the chances of oversampling an attraction basin are reduced. The goal of Thresheld Convergence is to improve the performance of search techniques during the first phase of exploration. The effectiveness of Thresheld Convergence has been demonstrated through applications to existing metaheuristics such as particle swarm optimization and differential evolution, and through the development of novel metaheuristics such as minimum population search and leaders and followers.

Algoritmos con estimación de distribuciones basados en cópulas y vines. Una aproximación al problema de Acoplamiento molecular

Los algoritmos con estimación de distribuciones, conocidos por Estimation of Distribution Algorithms (EDA), son algoritmos de optimización estocásticos de caja negra que se caracterizan por el uso explícito de distribuciones de probabilidad para explorar el espacio de búsqueda. El espacio de búsqueda es explorado por un procedimiento iterativo que estima y simula un modelo gráfico probabilístico que se construye generalmente a partir de las mejores soluciones. El uso de los modelos gráficos probabilísticos basados en cópulas, permite el tratamiento por separado de las propiedades estadísticas de las variables y su estructura de dependencia, lo que contrasta con la manera usual de construir distribuciones n-dimensionales donde las marginales son generalmente de la misma distribución. La mayoría de las cópulas están definidas para el caso bivariado; si son n-dimensionales, cuentan con uno o dos parámetros para caracterizar la fuerza de la dependencia entre todas las variables. Una de las soluciones para estas limitantes es la construcción de cópulas multivariadas a partir de una secuencia de árboles anidados llamados R-vines. Los R-vines se utilizan para organizar diferentes descomposiciones de la cópula multivariada en cópulas bivariadas. El principal atractivo de los vines para EDA es que estos modelos proveen una representación muy flexible de las distribuciones de búsqueda.
El problema de acoplamiento molecular es calcular computacionalmente la mínima energía requerida para que una macromolécula (proteína) y una molécula pequeña (ligando) se acoplen, conociendo el sitio de acoplamiento y la estructura tridimensional de ambas.  Este trabajo pretende mostrar las bondades de los EDA basados en vines para resolver el problema de acoplamiento molecular tomando como muestra un conjunto de 100 complejos moleculares. Para validar los resultados se compara con otros EDA con buenos resultados en la bibliografía.

Presentations by students of the Universidad de La Habana and the Universidade Federal Fluminense.

Optimización de sistemas de seguimiento mediante Técnicas de Computación Evolutiva

Análisis de la aplicación de técnicas evolutivas y clásicas de optimización a un problema de diseño no lineal con muchas especificaciones, donde hemos caracterizado el comportamiento de diferentes técnicas y las propiedades de la función propuesta. El análisis comparativo sobre este problema ha permitido explorar las propiedades de diferentes estrategias y las configuraciones posibles. El tamaño del problema, en términos del número de situaciones de diseño, M, se utilizó para escalar el análisis, con unos resultados que han mostrado que la aplicación de técnicas multiobjetivo depende críticamente de los operadores particulares empleados a medida que crece la dimensionalidad del problema. El operador de comparación basado en dominancia, orientado a favorecer la presencia de elementos del conjunto de Pareto en la población final, se encuentra con muchas dificultades a medida que se enfrenta a más objetivos. Llega un momento en que pesa más el criterio adicional de selección de individuos por su distribución en el frente que su valor de dominancia (strengh), de modo que la diferencia entre SPEA2 y NSGA-II viene dado por su heurística para determinar una distribución amplia de la muestra del conjunto de Pareto. SPEA2 tiene un comportamiento muy errático, con una ordenación por dominancia y estimación de la densidad de individuos, mientras que NSGA-II, que explora una distribución uniforme a lo largo de los objetivos individualmente evaluados (distancia de “crowding”), favorece el sesgo hacia soluciones en los extremos, y le permite superar el problema de la dimensionalidad asegurando la existencia de soluciones aceptables. En cuanto a las estrategias de combinación de objetivos para el cumplimiento de especificaciones, se ha comparado la heurística propuesta WCES (Worst-case Aggregation Evolution Strategy) con respecto a una suma directa de todos los valores. Esta heurística explota el comportamiento similar en todas las magnitudes evaluadas en diferentes situaciones, puesto que el compromiso es similar y tenemos alta correlación entre los objetivos. Los resultados han mostrado ventajas claras en términos de prestaciones y carga computacional con respecto a otras soluciones o configuraciones posibles. Por último, la justificación de las técnicas evolutivas para este problema de diseño ha quedado patente con el análisis de la distribución de mínimos locales de la función y el comportamiento de una técnica clásica de búsqueda de gradiente. La búsqueda de gradiente logra soluciones aceptables únicamente en el 30% de los casos, siempre inferiores a las alcanzadas por WCES y NSGA-II, y con un coste de hasta 10 veces mayor.

Many-objective optimization with evolutionary algorithms

Venue

Faculty of Mathematics and Computer Science

University of Havana

San Lázaro y L, Plaza. La Habana 10400 Cuba.

Previous editions