CHAPTER 7#

More Natural Optimization Algorithms.
더욱 자연스러운 최적화 알고리즘

The GA is not the only optimization algorithm that models natural processes.
GA는 자연스러운 과정을 모델로 만드는 유일한 optimization 알고리즘이 아닙니다.

In this chapter we briefly present some of the current algorithms being used for global optimization.
이 장에서, 우리는 간단히 global optimization에 사용되는 대표적인 알고리즘 몇몇을 보여준다.

Some introductory programs are included for your amusement.
몇몇의 소개의 프로그램은 당신의 즐거움을 위해 포함됩니다.

Which algorithm is best?
최상은 어떤 알고리즘입니까?

We tend to like the GA and some of the local optimization algorithms.
우리는 몇몇의 지역 최적화 알고리즘과 GA가 비슷한 경향이 있습니다.

The "No Free Lunch Theorem" says that the averaged performance of all search algorithms over all problems is equal (Wolpert, 1997).
모든 문제에 대한 모든 탐색 알고리즘의 평균내진 실행이 동일하다는 것은 그 "꽁짜 점심 없음 원리(NFL 이론)"라고 말합니다 (Wolpert, 1997).

In other words, the GA performs no better than a totally random search when applied to all problems.
바꾸어 말하면, GA는 모든 문제점에 적용되어질 때 완전히 임의의 탐색과 다를바없이 수행하게 된다.

Thus the idea is to use the right algorithm for the right problem.
그래서, 그 의미는 적절한 문제에 대해서 적절한 알고리즘을 사용하는 것이다.

7.1 SIMULATED ANNEALING
#

In the early 1980s the method of simulated annealing (SA) was introduced by Kirkpatrick and coworkers (1983), based on ideas formulated in the early 1950s (Metropolis, 1953).
1980년대 초에 1950년대 초에 공식화된 아이디어(Metropolis, 1953)에 기반하는 simulated annealing(SA)의 방법이 Kirkpatrick과 동료들에 의해 소개되었습니다 (1983).

This method simulates the annealing process in which a substance is heated above its melting temperature and then gradually cooled to produce the crystalline lattice, which minimizes its energy probability distribution.
이 방법은 물질이 그 수정 같은 창살을 생산하기 위해 그것의 용해 온도 이상으로 가열되고 그리고 나서 점차로 차게 되는 단련 과정을 흉내냅니다. 그런데 그것은 그것의 에너지 확률분포를 최소로 합니다.

This crystalline lattice, composed of millions of atoms perfectly aligned, is a beautiful example of nature finding an optimal structure.
완벽하게 정열이되어진 수백만 원자 중에서 구성된 이 수정 같은 창살은 최적의 구조를 발견하는 자연의 아름다운 보기입니다.

However, quickly cooling or quenching the liquid retards the crystal formation, and the substance becomes an amorphous mass with a higher than optimum energy state.
그러나 그리고 빨리 그 액체를 차게 하거나 끄는 것은 그 수정 구성과 그 물질을 속력을 늦춥니다. 정형이 없는 덩어리가 됩니다. 더 높게 최적의 에너지 상태보다 a

The key to crystal formation is carefully controlling the rate of change of temperature.
수정 구성으로의 열쇠는 조심스럽게 온도의 변화잔돈의 비율을 관리하고 있습니다.

The algorithmic analog to this process begins with a random guess of the cost function variable values.
이 과정으로의 algorithmic 유사물은 그 비용함수 변화하는 것 가치의 임의의 추측으로 시작합니다.

Heating means randomly modifying the variable values.
가열은 그 가변의 가치를 수정하는 것을 무작위로 의미합니다.

Higher heat implies greater random fluctuations.
더 높은 열은 더 큰 임의의 파동을 암시합니다.

The cost function returns the output, f, associated with a set of variables.
그 비용함수는 그 산출, f를 되돌려 줍니다. 그런데 그것은 변수의 집합은 연상되었습니다.

If the output decreases, then the new variable set replaces the old variable set.
그 산출이 준다면, 새로운 세트된 변화하는 것은 오래된 세트된 변화하는 것을 교체합니다.

If the output increases, then the output is accepted provided that (7.1)
그 산출이 증가한다면, 그 산출은 그만큼 (7.1)제공되면서 받아들여집니다.

where r is a uniform random number and T is a variable analogous to temperature.
r가 있는 일관성이 있는 난수와 T는 온도에 대한 유사한 변화하는 것입니다.

Otherwise, the new variable set is rejected.
그렇지 않으면, 그 새로운 가변의 집합은 거절됩니다.

Thus, even if a variable set leads to a worse cost, it can be accepted with a certain probability.
그래서, 세트된 변화하는 것이 더욱 나쁜 비용을 초래할지라도, 그것은 어떤 확률로 받아들여질 수 있습니다.

The new variable set is found by taking a random step from the old variable set (7.2)
그 새로운 가변의 집합 (7.2)은 오래된 세트된 변화하는 것에서 임의의 조치를 취하는 것에 의해 발견됩니다.

The variable d is either uniformly or normally distributed about pold.
그 가변의 d는 균일하게 있거나 pold에 대해 보통 분산시켰습니다.

This control variable sets the step size so that, at the beginning of the process, the algorithm is forced to make large changes in variable values.
이 제어 변수는 그 단계 크기를 세트합니다. 하도록, 그 프로세스의 처음에는, 그 알고리즘은 변수 값에서 큰 변화를 발생시키지 않을 수 없습니다.

At times the changes move the algorithm away from the optimum, which forces the algorithm to explore new regions of variable space.
때때로, 그 변화잔돈는 그 최적 조건으로부터 떨어져 있는 그 알고리즘을 움직입니다. 그런데 그것은 가변의 공간의 새로운 영역을 탐험하기 위해 그 알고리즘을 강제합니다.

After a certain number of iterations, the new variable sets no longer lead to lower costs.
되풀이의 어떤 수 후에, 그 새로운 가변의 집합은 더 보다 싼 비용을 더 초래하지 않습니다.

At this point the values of T and d decrease by a certain percent and the algorithm repeats.
이 시점에서, T와 d의 가치는 어떤 퍼센트와 그 알고리즘 반복에 의해 줍니다.

The algorithm stops when T ? 0.
그 알고리즘은 언제 T ? 0을 멈춥니다.

The decrease in T is known as the cooling schedule.
T에 있는 감소는 그 냉각 스케쥴로 알려져 있습니다.

Many different cooling schedules are possible.
많은 다른 냉각 예정은 가능합니다.

If the initial temperature is T0 and the ending temperature is TN, then the temperature at step n is given by (7.3)
그 처음의 온도는 T0이고 그 끝 온도는 TN이라면, 단계 n에서의 온도는 (7.3)에 의해 주어집니다.

where f decreases with time.
f가 시간으로 주는

Some potential cooling schedules are as follows:
잠재한 몇몇의 냉각 예정은 다음과 같습니다.

1. Linearly decreasing: Tn = T0 - n(T0 - Tn)/N.
1. linear 줍니다.

2. Geometrically decreasing: Tn = 0.99Tn-1.
2. geometrical 줍니다.

3. Hayjek optimal: Tn = c/log(1 + n), where c is the smallest variation required to get out of any local minimum.
3. Hayjek optimal: Tn = c/log(1 + n), c이 가장 작은 변화는 어떤 지역적인 최소값에서도 나가기 위해 요구했습니다.

Many other variations are possible.
많은 다른 변화는 가능합니다.

The temperature is usually lowered slowly so that the algorithm has a chance to find the correct valley before trying to get to the lowest point in the valley.
그 알고리즘이 그 골짜기에서 최하의 포인트에 도착하려고 노력하기 전에 그 올바른 골짜기를 발견할 기회를 가지고 있도록, 그 온도는 보통 느리게 낮춰집니다.

This algorithm has essentially “solved” the traveling salesperson problem (Kirkpatrick, 1983) and has been applied successfully to a wide variety of problems.
이 알고리즘은 여행하는 "해결했습니다" salesperson 문제(Kirkpatrick, 1983)를 본질적으로 가지고 있고 넓은 다양한 문제점에 성공적으로 적용되었습니다.

We put an SA algorithm to work on (1.1).
우리는 (1.1)에 작업에 SA 알고리즘을 올려놓았습니다.

Figure 7.1 is a plot of all the guesses made by the SA in the process of finding the minimum.
그림 7.1은 그 최소한을 발견하는 과정에 SA에 의해 된 모든 추측의 책략입니다.

As with the GA, the random nature of this algorithm scatters the samples over the entire extent of the cost function.
GA와 마찬가지로, 이 알고리즘의 임의의 자연은 그 비용함수의 전체의 넓이 넘어 견본을 흩뿌립니다.

Figure 7.2 is a plot of the guesses and the best guess so far vs. the number of function evaluations.
그림 7.2는 그 추측 중에서 책략이고 가장 좋은 것은 기능 evaluations의 수에 대비해 지금까지 추측합니다.

After 58 function evaluations, the SA finds the minimum.
58 기능 evaluations 후에, SA는 그 최소한을 발견합니다.

SA compares favorably with the GA and performs considerably better with multimodal cost functions than local optimizers.
SA는 GA와 호의를 가지고 비교하고 상당히 더 잘 지역적인 optimizers보다 multimodal 비용함수와 함께 수행합니다.

7.2 PARTICLE SWARM OPTIMIZATION (PSO)
#

7.2 입자는 OPTIMIZATION (PSO)을 떼짓습니다.

PSO was formulated by Edward and Kennedy in 1995.
PSO는 1995년에서 Edward와 Kennedy에 의해 공식화되었습니다.

The thought process behind the algorithm was inspired by the social behavior of animals, such as bird flocking or fish schooling.
떼지어 모이는 새나 물고기 학교 교육과 같게 그 알고리즘의 뒤에 있는 생각 과정은 동물의 사회의 행동에 의해 고무되었습니다.

PSO is similar to the continuous GA in that it begins with a random population matrix.
PSO는 그것이 임의의 모집단 행렬로 시작한다는 점에서 연속적인 GA와 비슷합니다.

Unlike the GA, PSO has no evolution operators such as crossover and mutation.
GA와 다르게 PSO는 교차로와 변화와 같은 어떤 진화 운전자도 가지고 있지 않습니다.

The rows in the matrix are called particles (same as the GA chromosome).
그 주형에 있는 열은 입자 (same as the GA chromosome)라고 불립니다.

They contain the variable values and are not binary encoded.
그들은 그 가변의 가치를 포함하고 암호문으로 바꾸어진 이원체가 아닙니다.

Each particle moves about the cost surface with a velocity.
각각의 입자는 속도와 비용 표면에 대해 이동합니다.

The particles update their velocities and positions based on the local and global best solutions:
그 입자는 그들의 속도와 지역적이고 지구상인 그 가장 좋은 해결 방법(solution)에 기반하는 위치를 갱신합니다.

where
nm,n = particle velocity
pm,n = particle variables
r1, r2 = independent uniform random numbers
G1 = G2 = learning factors = 2
pm,n
local best = best local solution
pm,n
global best = best global solution

The PSO algorithm updates the velocity vector for each particle then adds that velocity to the particle position or values.
그리고 나서 각각의 입자가 그 입자 위치에게 그 속도나 가치를 더하므로, PSO 알고리즘은 그 속도 벡터를 갱신합니다.

Velocity updates are influenced by both the best global solution associated with the lowest cost ever found by a particle and the best local solution associated with the lowest cost in the present population.
속도 갱신은 최하의 비용이 그 현재의 인구에서 연상된 입자와 가장 좋은 지역적인 해법에 의해 언젠가 발견된 최하의 비용이 연상된 지구상의 가장 좋은 해법에 영향받습니다.

If the best local solution has a cost less than the cost of the current global solution, then the best local solution replaces the best global solution.

The particle velocity is reminiscent of local minimizers that use derivative information, because velocity is the derivative of position.

The constant G1 is called the cognitive parameter.
일정한 G1은 그 인식의 매개변수라고 불립니다.

The constant G2 is called the social parameter.
일정한 G2는 그 사회의 매개변수라고 불립니다.

The advantages of PSO are that it is easy to implement and there are few parameters to adjust.
PSO의 이점은 구현하는 것이 쉽고 순응하는 약간의 매개변수가 있다는 것입니다.

The PSO is able to tackle tough cost functions with many local minima.
PSO는 많은 지역적인 최소한과 튼튼한 비용함수를 달려들 수 있습니다.

Figure 7.3 shows the initial random swarm set loose on the cost surface.
그림 7.3은 그 비용 표면에 느슨하게 세트된 처음의 임의의 무리를 보여줍니다.

The particle swarming becomes evident as the generations pass (see Figures 7.4 to 7.7).
세대가 지남에 (see Figures 7.4 to 7.7)따라 떼짓는 것이 명백하게 되는 입자

The largest group of particles ends up in the vicinity of the global minimum and the next largest group is near the next lowest minimum.
입자의 가장 큰 그룹은 끝납니다. 그 그 지구상의 최소한과 그 가장 큰 다음의 그룹의 근처는 그 다음의 최하의 최소한 가까이에 있습니다.

A few other particles are roaming the cost surface at some distance away from the two groups.
다른 약간의 입자는 떨어져 그 두 그룹으로부터 몇몇의 거리에 그 비용 표면을 배회하고 있습니다.

Figure 7.8 shows plots of pm,n local best and pm,n global best as well as the population average as a function of generation.
그림 7.8은 가장 잘 지구상의 오후와 n과 오후와 n의 책략과 세대의 기능으로서 인구 평균을 보여줍니다.

The particle pm,n global best serves the same function as elite chromosome in the GA.
입자 오후, 지구상의 n은 GA에 뽑힌 최상의 염색체와 같은 기능을 가장 잘 봉사합니다.

The chaotic swarming process is best illustrated by following the path of one of the particles until it reaches the global minimum (Figure 7.9).
그 혼돈된 떼짓는 과정, 그 입자 중의 하나의 길을 따라가는 것은 그것이 그 지구상의 최소한 (Figure 7.9)에 도착할 때까지 가장 잘 설명합니다.

In this implementation the particles frequently bounce off the boundaries.
이 이행에서, 그 입자는 그 경계로부터 빈번히 튑니다.

7.3 ANT COLONY OPTIMIZATION (ACO)
#

Ants can find the shortest path to food by laying a pheromone (chemical) trail as they walk.
pheromone (chemical) 질질 끈 자국을 놓음으로써 음식에, 개미는 그들이 걸음에 따라 가장 짧은 길을 발견할 수 있습니다.

Other ants follow the pheromone trail to food.
다른 개미는 음식으로의 pheromone 질질 끈 자국을 따릅니다.

Ants that happen to pick the shorter path will create a strong trail of pheromone faster than the ones choosing a longer path.
더 짧은 경로를 우연히 고르게 되는 개미는 더 빨리 더 긴 길을 선택하는 하나보다 pheromone의 강한 질질 끈 자국을 새로 만들 것입니다.

Since stronger pheromone attracts ants better, more and more ants choose the shorter path until eventually all ants have found the shortest path.
더 강한 pheromone가 개미를 끄니까, 더 좋고 던 개미는 모든 개미가 가장 짧은 길을 발견할 때까지 더 짧은 길을 선택합니다.

Consider the case of three possible paths to the food source with one longer than the others.Ants choose each path with equal probability.
others.Ants가 동일한 확률을 가진 각각의 길을 선택하는 것보다 하나를 가지고 음식 원천에 대한 세 가능한 길의 케이스를 더 오래 고려하세요.

Ants that went and returned on the shortest path will cause it to have the most pheromone soonest.
개미는 그만큼 갔고 가장 짧은 길 위에 되돌려 주어지면서 그것이 대부분의 pheromone를 가장 곧 가지고 있게 할 것입니다.

Consequently new ants will select that path first and further reinforce the pheromone level on that path.
새로운 개미는 그 길을 첫번째 선택하고 그 길에서 더 훨씬 pheromone 수준을 보강할 것입니다.

Eventually all the ants will follow the shortest path to the food.
그 모든 개미는 그 음식에 가장 짧은 길을 따라갈 것입니다.

The first ant colony optimization (ACO) algorithms were designed to solve the traveling salesperson problem, because this problem closely resembles finding the shortest path to a food source (Dorigo and Maria, 1997).
첫번째 개미 식민지 optimization (ACO) 알고리즘은 이 문제가 음식 원천 (Dorigo and Maria, 1997)으로 가장 짧은 길을 발견하는 것을 가까이 닮기 때문에 여행하는 salesperson 문제를 해결하기 위해 설계되었습니다.

Initial attempts at an ACO algorithm were not very satisfying until the ACO algorithm was coupled with a local optimizer.
ACO 알고리즘에서의 처음의 시도는 ACO 알고리즘이 지역적인 optimizer와 함께 연결될 때까지 매우 만족할 만하지 않았습니다.

One problem is premature convergence to a less than optimal solution because too much virtual pheromone was laid quickly.
매우 많이 가상의 pheromone가 빨리 놓여졌기 때문에 한 문제는 최적의 해결 방법(solution) 이하까지 조숙한 수렴입니다.

To avoid this stagnation, pheromone evaporation is implemented.
이 침체를 회피하기 위해, Pheromone 증발은 구현됩니다.

In other words, the pheromone associated with a solution disappears after a period of time.
바꾸어 말하면, 해결 방법(solution)가 연상된 pheromone는 기간 후에 사라집니다.

The ACO is a natural for the traveling salesperson problem.
ACO는 여행하는 salesperson 문제를 위해 자연적인 것입니다.

It begins with a number of ants that follow a path around the different cities.
그것은 그 다른 도시 주위에 길을 따라가는 던 개미로 시작합니다.

Each ant deposits a pheromone along the path.
각각의 개미는 그 길을 따라 pheromone를 예치합니다.

The algorithm begins by assigning each ant to a randomly selected city.
그 알고리즘은 무작위로 선택된 도시에 각각의 개미를 할당함으로써 시작됩니다.

The next city is selected by a weighted probability that is a function of the strength of the pheromone laid on the path and the distance of the city.
그 다음의 도시는 그 도시의 그 길과 그 거리에 놓여진 pheromone의 힘의 기능인 부담이 무거운 확률에게 선택됩니다.

The probability that ant k will travel from city m to city n is given by
개미 k이 n이 주어지는 도시로 도시 m에서 여행할 확률
(7.6)
where
t = pheromone strength
q = cities on tour k that come after city m
a = pheromone weighting; when a = 0, closest city is selected
b = distance weighting; when b = 0, distance between cities is ignored

Short paths with high pheromone have the highest probability of selection.
높은 pheromone를 가지는 짧은 길은 선택의 가장 높은 확률을 가지고 있습니다.

On the initial paths, pheromone is laid on inefficient paths.
그 처음의 길에, Pheromone는 비효율적인 길에 놓여집니다.

Consequently some of this pheromone must evaporate in time or the algorithm will converge on an inefficient path.
결과적으로, 시간이나 그 알고리즘이 비효율적인 길에서 한점에 모을 pheromone가 증발시켜야 하는 이것의 몇몇

Early trials of ACO found that an elitist strategy is as important as it is with GAs.
ACO의 이른 재판은 그것이 그것이 GA와 같이 있음에 따라 중요한 전략이 있는 엘리트 주의자라는 것을 발견했습니다.

As a result the pheromone along the best path so far is given some weight in calculating the new pheromone levels.
결과적으로, 가장 좋은 길을 따라 pheromone는 새로운 pheromone 수준을 계산하는 데 있어서 몇몇의 무게를 지금까지 받습니다.

The pheromone update formula is given by (Bonabeau et al., 1999)
갱신 법식이 주어지는 pheromone (Bonabeau et al., 1999)

where
tk
mn = pheromone laid by ant k between city m and city n
x = pheromone evaporation constant
e = elite path weighting constant
tmn
elite = pheromone laid on the best path found by the algorithm to this point

The ACO does well on a traveling salesperson problem with 30 cities.
ACO는 30 도시와 관련된 여행하는 salesperson 문제에서 잘 합니다.

Figure 7.10 is the optimal path found by this algorithm.
그림 7.10은 이 알고리즘에 의해 발견된 최적의 길입니다.

Its convergence is shown in Figure 7.11.
그것의 수렴은 Figure 7.11에 보여집니다.

Other types of problems can be solved using ACO too.
문제의 다른 형태는 ACO를 매우 사용하면서 해결될 수 있습니다.

7.4 GENETIC PROGRAMMING (GP)
#

Wouldn’t it be nice to get a computer to do what you want, without telling it how to do it in great detail?
그것에게 큰 상세에서 그것을 하는 방법을 말하지 않는 Wouldn??t, 그것, 당신이 원하는 것을 하기 위해 컴퓨터를 얻어서 좋습니다.

Genetic programming (GP) accomplishes this goal through applying a GA to writing computer programs (Koza, 1992).
Genetic programming (GP) accomplishes this goal through applying a GA to writing computer programs (Koza, 1992).

The variables are various programming constructs, and the output is a measure of how well the program achieves its objectives.
그 변화하는 것은 다양한 프로그래밍 건조물입니다. 그리고 그 산출은 얼마나 잘 그 프로그램이 그것의 목표를 달성하는지에 대한 단위입니다.

The GA operations of mutation, reproduction (crossover) and cost calculation require only minor modifications.
변화와 재생 (crossover)과 비용 계산의 GA 작동수술는 단지 중요하지 않은 변경을 요구합니다.

GP is a more complicated procedure because it must work with the variable length structure of the program or function.
그것이 그 프로그램의 가변의 길이 구조를 가지고 작동해야 하거나 기능을 해야 하기 때문에 GP는 더욱 복잡한 과정입니다.

A GP is a computer program that writes other computer programs.
GP는 다른 컴퓨터 프로그램을 쓰는 컴퓨터 프로그램입니다.

Figure 7.10 ACO solution to 30 city traveling salesperson problem.
salesperson 문제를 여행하는 30 도시로 가는 그림 7.10 ACO 해법

The computer programs written by GP are not in common languages such as MATLAB or Fortran but in the more obscure artificial intelligence language (AI) LISP (LISt Processor).
GP에 의해 쓰여진 컴퓨터 프로그램은 MATLAB나 Fortran과 같, 그러나, 더 많은 모호한 인공 지능 언어 (AI) LISP (LISt Processor)에서 공통의 언어로 있지 않습니다.

Unlike most other languages, LISP uses expressions but not program statements (Graham, 1995).
Unlike most other languages, LISP uses expressions but not program statements (Graham, 1995).

The value resulting from evaluating an expression can be embedded in other expressions.
표현을 평가하는 것으로부터 결과로서 생기는 가치는 다른 표현에 내장될 수 있습니다.

Scheme is a more recent AI language and is a derivative of LISP that stresses conceptual elegance and simplicity (Harvey and Wright, 1994).
계획은 더 최근의 AI 언어이고 개념적인 우아함과 단순함 (Harvey and Wright, 1994)을 강조하는 LISP의 파생물입니다.

It is much more compact than LISP.
그것은 LISP보다 많이 더욱 빽빽합니다.

The list in LISP is an ordered sequence of elements.
LISP에 있는 리스트는 일련의 정연한 요소입니다.

Elements are functions, names, numbers, or other lists.
원소는 기능, 이름, 수, 또는 다른 리스트입니다.

Lists are flexible because the number or type of elements does not have to be specified in advance.
원소의 그 수나 형태가 미리 명시될 필요가 없기 때문에 리스트는 유연합니다.

Each chromosome in the initial population of a GP is a program comprised of random functions and terminals.
GP의 처음의 인구에 있는 각각의 염색체는 임의의 기능과 터미날로 구성되어진 프로그램입니다.

Some examples of functions are addition, subtraction, division, multiplication, and trigonometric functions.
기능의 몇몇의 보기는 부가, 빼기, 분할, 증가와 삼각법의 기능입니다.

The terminal set consists of the variables and constants of the programs.
세트된 터미날은 그 프로그램의 그 변수와 상수로 구성됩니다.

Figure 7.11 ACO convergence of the traveling salesperson problem.
여행하는 salesperson 문제의 그림 7.11 ACO 수렴

Figure 7.12 Population of four polynomial functions.
네 polynomial의 그림 7.12 Population은 기능을 합니다.

Figure 7.12 shows a small population of four polynomial functions.
그림 7.12는 네 polynomial 기능의 작은 인구를 보여줍니다.

The parse tree representation is below each polynomial.
그 분석 나무 표현은 각각의 polynomial의 아래로 있습니다.

Each program in the population is run and its cost evaluated.
그 인구에 있는 각각의 프로그램은 실행되고 그것의 비용은 평가했습니다.

The cost is an indicator of how well it solves the problem.
그 비용은 얼마나 잘 그것이 그 문제를 해결하는지에 대한 지시자입니다.

Let’s assume the goal is to find a polynomial that interpolates sin(x) for 0 £ x £ p.
Let??s는 그 목적이 0 ?ㄼ x ?ㄼ p에 대한 죄 (x)를 개변하는 polynomial을 발견하는 것이라는 것을 가정합니다.

In this case the cost is the sum of the squared difference between the interpolating function and sin(x).
이 케이스에, 그 비용은 그 개변하는 기능 사이의 정사각형으로 된 차이의 총계와 죄입니다 (x).

As is often the case with many problems, the initial population of the GP does not contain very good solutions (see Figure 7.13).
GP의 처음의 인구는 매우 좋은 해법 (see Figure 7.13)을 포함하지 않습니다.

A new population of computer programs is created through selection, crossover, and mutation.
선택과 교차로와 변화를 통해, 컴퓨터 프로그램의 새로운 인구는 새로 만들어집니다.

Programs are randomly selected from the population using the same stochastic selection methods as in a GA.
프로그램은 GA에처럼 같은 stochastic한 선택 방법을 사용하는 인구로부터 무작위로 선택됩니다.

A node is randomly selected in two parent chromosomes and the tree structure below these nodes are exchanged to create new offspring.
마디는 염색체와 그 나무가 조직화하는 이 마디가 새로운 자손을 새로 만들기 위해 교환되는 두 부모에서 무작위로 선택됩니다.

Figure 7.14 shows the offspring resulting from program A and program D in Figure 7.12 mating.
그림 7.14는 그림 7.12 교배에서의 프로그램 A와 프로그램 D의 결과로 발생하면서 그 자손에게 보여줍니다.

The bold lines indicate the part of the parse trees that were exchanged.
그 대담한 선은 교환된 분석 트리 구조의 부분을 나타냅니다.

The two parents participating in crossover are usually of different sizes and shapes.
교차로에 참가하는 두 부모는 보통 다른 크기와 모양입니다.

Even if identical parents are selected, two different offspring can result if the crossover points are not at the same nodes.
동일한 부모가 선택될지라도, 그 교차로 포인트가 그 같은 마디에 있지 않는다면 두 다른 자손은 결과로서 생길 수도 있습니다.

Mutations occur next.
변화는 다음번에 발생합니다.

Figure 7.13 Plots of chromosomes approximating sin(x).
죄 (x)를 다가가는 염색체의 그림 7.13 책략

Figure 7.14 Two offspring formed through mating parents B and D.
그림 7.14 두 자손은 부모 B와 D를 짝을 이루게 하는 것을 통해 형성되었습니다.

A subtree mutation replaces a randomly selected subtree with a randomly generated subtree.
서브 트리 변화는 무작위로 생성된 부속트리로 무작위로 선택된 부속트리를 교체합니다.

Another type of mutation replaces the function or variable in a node.
변화의 다른 형태는 마디에서 그 기능이나 변화하는 것을 교체합니다.

Figure 7.15 shows subtree mutation applied to the left side of program B in Figure 7.12 and variable mutation on the right side.
그림 7.15는 프로그램 B의 왼쪽에 적용되어진 부속트리 변화를 마중합니다. 그런데 그들은 그 오른쪽에 있는 그림 7.12와 가변의 변화입니다.

Usually computer programs have many subroutine calls.
보통, 컴퓨터 프로그램은 많은 부속 루틴 호출을 가지고 있습니다.

GP operates on subroutines as well as on mathematical operations.
GP는 부속 루틴에 대해서 동작합니다. 수학적인 작동수술에 있는 그리고

Some examples include:
몇몇의 보기는 포함합니다.

. Subroutine duplication.
Subroutine 복제

Copies an existing subroutine in a program and renames the copy.
프로그램에 현존하는 subroutine를 복사하고 그 복사를 새로 명명합니다.

The subroutine calls in the program are randomly divided between the old subroutine and the new subroutine.
그 프로그램에서의 부속 루틴 호출은 그 오래된 subroutine와 그 새로운 subroutine 사이에 무작위로 나누어집니다.

. Argument duplication.
논쟁 복제

Copies one argument of a subroutine, randomly divides internal references to it, and preserves overall program semantics by adjusting all calls to the subroutine.
그것에 대한 내부의 참조를 나누면서 subroutine의 한 논쟁을 복사하는 것은 그 subroutine에 대한 모든 호출을 조정함으로써 전체적인 프로그램 의미론을 보전합니다.

. Subroutine creation.
Subroutine 창조

Generates a new subroutine.
새로운 subroutine를 생성시킵니다.

. Architecture altering.
아키텍쳐 변경하는

Deletes a subroutine.
subroutine를 삭제합니다.

It may also add and delete automatically defined iterations, automatically defined loops, automatically defined recursions, and automatically defined stores (memory).
그것은 자동적으로 정의된 되풀이를 또한 더할 수 있고 삭제할 수 있습니다.
고리를 정의하는 것은 recursions를 정의했습니다.
그리고 가게를 정의했습니다.

A GP works best for problems that do not have a single best solution and for problems with dynamically changing variables.
GP는 동적으로 변화하는 변화하는 것을 가지는 문제를 위해 하나의 가장 좋은 해결 방법(solution)를 가지고 있지 않는 문제점에게 가장 좋습니다. 그리고

There has been some concern over the robustness of GP solutions (Kushchu, 2002), where robustness is the ability of the program to arrive at a good solution when applied to an environment that is similar to the one it was evolved for.
강함이 그것이 발전된 것과 비슷한 환경에 적용되어질 때 좋은 해법에 도착하는 그 프로그램의 능력인 GP 해법(Kushchu, 2002)의 강함에 대한 몇몇의 관계고려가 있었습니다.

Many researchers have successfully used GP on a wide variety of problems, including automated synthesis of controllers, circuits, antennas, genetic networks, and metabolic pathways.
많은 연구원은 감사관, 순회, 안테나, 유전학의 네트워크와 신진대사의 경로의 자동화된 종합을 포함하는 넓은 다양한 문제점에 성공적으로 GP를 사용했습니다.

Koza (1994) and Koza et al.
Koza (1994)와 Koza et al

(1999, 2003) provide a wide range of examples, computer code, and video of GP applications.
(1999, 2003) 넓은 범위의 예제, 컴퓨터 코드, 그리고 GP 응용의 비디오를 제공하세요.

Koza reports that GPs are recreating previously patented electronic inventions (Koza, 2003).
Koza는 GP가 그전에 특허가 얻어진 전자의 발명을 재생산하고 있다고 보고합니다 (Koza, 2003).

A few of these inventions have even been improved upon.
몇몇은 이 발명으로 개선되었습니다.

It is possible for the GP to work with evolvable hardware.
GP가 evolvable 하드웨어를 가지고 일하는 것은 가능합니다.

An excellent example of evolvable hardware is a rapidly reconfigurable field-programmable gate array.
evolvable 하드웨어의 우수한 보기는 빨리 reconfigurable field-programmable 문 정렬입니다.

These chips can be reconfigured to perform desired logical operations via commands from a computer.
이 칩은 컴퓨터로부터 명령을 통해 논리적인 희망된 수술을 수행하기 위해 재군비될 수 있습니다.

Figure 7.15 Two possible types of mutation on chromosome A.
가능한 둘이 염색체 A 위에 변화 중에서 타이프하는 그림 7.15

Although circuit designs developed by the GP may outperform previous "best" designs, understanding how or why they work is often difficult.
GP에 의해 개발된 순회 디자인이 이전의 "가장" 디자인을 작업 능력에 있어서 능가하지라도, 어떻게 이해 또는, 그들이 일하는 이유는 종종 어렵습니다.

In addition the GP designs may contain redundant or extraneous components.
또한, GP 디자인은 여분이거나 외래인 구성요소를 포함할 수 있습니다.

7.5 CULTURAL ALGORITHMS
#

The advancement or optimization of the human race cannot be totally attributed to genetics and evolution.
그 인류의 그 발전이나 optimization은 유전학과 진화에 완전히 속하게 될 수 없습니다.

Human interactions, societal behaviors, and other factors play major roles in the optimization process as well.
사람의 상호작용, 사회의 행동, 다른 요소는 또한 optimization 과정에서 중요한 역을 합니다.

Since social interactions allow for faster adaptation and improvement than genetics and evolution, an optimization algorithm should include those societal factors that would help speed convergence.
사회의 상호작용이 유전학과 진화보다 더 빠른 적응과 개선을 고려하니까, optimization 알고리즘은 속력 수렴을 도울 그 사회의 요소를 포함해야 합니다.

These algorithms are known as cultural algorithms (Reynolds, 1994).
이 알고리즘은 문화적인 알고리즘으로 알려져 있습니다 (Reynolds, 1994).

As with a GA, these algorithms begin with a random population called a civilization.
GA와 마찬가지로, 이 알고리즘은 문화로 호출된 임의의 인구와 시작됩니다.

The civilization has societies that consist of clusters of points or individuals.
그 문화는 포인트나 개인의 클러스터로 구성되는 사회를 가지고 있습니다.

Each society has a leader.
각각의 사회는 지도자를 가지고 있습니다.

Individuals within a society only interact with others in the same society.
사회 안에 있는 개인은 단지 그 같은 사회에서 다른 몇몇과 상호 작용합니다.

This behavior is analogous to a local search.
이 행동은 지역적인 탐색과 유사합니다.

Society leaders, however, interact not only with other individuals in the same society but with leaders from other societies as well.
그러나 사회 지도자는 또한 그 같은 사회에 있는 다른 개인과 그리고, 다른 사회 출신의 지도자와 상호 작용합니다.

A leader may leave its current society to join a society that performing at a higher level.
지도자는 사회에 그만큼 참여하는 그것의 현재의 사회가 더 높은 수준에서 수행하는 것을 내버려둘 것입니다.

This leader migration allows high-performing societies to flourish while diminishing low-performing societies.
이 지도자 이주는 high-performing 사회가 low-performing 사회를 줄이는 동안 번영하는 것을 허락합니다.

This behavior is analogous to global search.
이 행동은 지구상의 탐색과 유사합니다.

The hope is that these algorithms will produce excellent results faster than a GA.
그 희망은 이 알고리즘이 더 빨리 GA보다 우수한 결과를 낳을 것이라는 것입니다.

They are reminiscent of the parallel island GAs.
그들은 평행의 섬 GA를 생각나게 합니다.

The interested reader can find pseudocode for this type of algorithm in the literature (Ray and Liew, 2003).
그 흥미를 가진 독자는 그 문학 (Ray and Liew, 2003)에서 이 유형의 알고리즘에 대해 pseudocode를 발견할 수 있습니다.

7.6 EVOLUTIONARY STRATEGIES
#

GAs are not the only type of evolutionary computing methods.
GA는 발달의 계산 방법의 유일한 형태가 아닙니다.

Modeling biological evolution on a computer began in the 1960s.
컴퓨터에 있는 모델을 만드는 생물학의 진화는 1960년에 시작되었습니다.

Rechenberg (1965) introduced evolutionary strategies in Europe.
Rechenberg (1965)은 유럽에서 발달의 전략을 소개했습니다.

His first versions of the algorithms used real-valued parameters and began with a parent and a mutated version of a parent.Whichever had the highest cost was discarded.
그의 그 알고리즘의 첫번째 버전은 rel-valued 매개변수를 사용했고 부모로 시작했고, 그리고, parent.Whichever의 변화되는 버전은 가장 높은 비용을 가지고 있었고 버렸습니다.

The winner produced a mutated version and the process repeated.
그 승리자는 변화되는 버전을 생산했고 그 과정은 되풀이하여 말했습니다.

Populations and crossover were not incorporated until later years.
인구와 교차로는 더 늦은 년까지 포함되지 않았습니다.

A general version of the algorithm, known as the (m + l) evolution strategy, was developed
그 진화 전략으로 알려진 그 알고리즘의 일반적인 버전은 발전했습니다. (m + l)

In this strategy, m parents produce l offspring.
이 전략에, m 부모는 l 자손을 생산합니다.

In succeeding generations only the best m of the l offspring and m parents are allowed to survive until the next generation.
단지 세대를 계승하는 것에 있어서의, 그 l 자손의 가장 좋은 것 m과 m 부모는 그 차세대까지 살아남도록 허락받습니다.

Another variant known as the (m, l) replaces the parents with the best m offspring.
다른 알려진 변체, 그 부모를 가장 (m, l)교체합니다. m 자손

None of the parents from the previous generation are allowed to produce offspring again.This approach does not use elitism.
이전의 세대에서 나온 부모 중의 아무도 허락되지 않습니다. 자손 again.This를 생산하기 위해, 접근은 엘리트주의를 사용하지 않습니다.

It accepts a lower cost at a given generation in the hope that a better cost will be found in a future generation.
그것은 더 좋은 비용이 미래 세대에 발견될 것을 희망해 주어진 세대에서의 더 보다 싼 비용을 받아들입니다.

Fogel introduced the concept of evolutionary programming in the United States at about the same time as Rechenberg's work
Fogel은 대략 Rechenberg의 작업과 같은 시간에 미국에 있는 발달의 프로그래밍의 개념을 소개했습니다.

For more detailed information on evolutionary algorithms, see
발달의 알고리즘의 위에 있는 더욱 상세한 정보를 위해 보세요.

7.7 THE FUTURE OF GENETIC ALGORITHMS
#

Some optimization problems are so big that they have not been totally solved to date.
몇몇의 optimization 문제는 매우 큽니다. 그래서, 그들은 날짜에 완전히 해결되지 않았습니다.

Ahuja and Orlin (2003) report how new optimization algorithms are successfully improving solutions to very large problems.
Ahuja와 Orlin (2003)은 매우 새로운 optimization 알고리즘이 매우 큰 문제에 대한 해법을 성공적으로 개선하고 있다고 보고합니다.

In this case very largescale neighborhood (VLSN) techniques were used on the airline fleet scheduling problem.
매우 이 케이스에서, largescale 이웃 (VLSN) 기술은 문제를 계획하면서 그 정기항공 함대에서 사용되었습니다.

In this problem an airline has to schedule planes into and out of airports in an efficient manner that maximizes revenue minus operating costs while satisfying constraints such as size of plane, number of expected passengers, and number of planes leaving an airport matching the number arriving.
정기항공이 평면을 계획해야 하는 이 문제에서, 그리고, 평면, 기대된 승객의 수, 그리고 공항이 그 수 arriving을 필적하는 것을 내버려두는 평면의 수의 크기와 같은 압박을 만족시키는 동안 경영비minus 세입을 최대로 하는 효율적인 매너에 있는 공항으로부터

At the same time flight crews must be scheduled for all planes.
동시에, 비행 승무원은 모든 평면에 계획되어야 합니다.

The assignments are broken into four separate problems:
그 지정은 네 분리된 문제점에 침입됩니다.

(1) fleet assignment, (2) through assignment (a plane that stops in one city then proceeds to another city), (3) aircraft routing, and (4) crew scheduling.
(1) 지정을 통하는 함대 지정 (평면은 그리고 나서 도시가 다른 도시에 진행하는 것을 그만큼 들릅니다.), 그리고 (2) (3) 항공기 발송하는 (4)계획하는 승무원

Although these are each separate models, they must be coupled to obtain the best overall solution.
이것이 분리된 각각의 모델일지라도, 그들은 가장 좋은 전체적인 해법을 얻기 위해 연결되어야 합니다.

Real life problems such as this will continue to challenge optimization routines for years to come.
실생활에, 이것과 같은 문제는 여러해 동안 오는 최적화 루틴을 계속해서 도전할 것입니다.

We return to the hiking analogy of Chapter 1 and imagine ourselves searching for the lowest point in Rocky Mountain National Park.
우리는 장 1의 하이킹 유사로 돌아가고 Rocky Mountain National Park에서의 최하의 포인트를 찾는 우리들 자신을 상상합니다.

We can think of the GA as a new tool to use, analogous to carrying a global positioning system (GPS) device.
지구상의 위치시키는 시스템 (GPS) 장치를 운반하는 것에 유사한 우리는 사용하는 GA에 대해 새로운 도구로 생각할 수 있습니다.

We can take this new tool to any position in the park and take a reading of the three-dimensional coordinates.
우리는 그 공원 안에 어떤 위치에도 이 새로운 도구를 잡을 수 있고 그 3 차원의 coordinates의 독서를 잡을 수 있습니다.

We know the result of the cost function (the elevation) as well as the latitude and longitude of the location.
우리는 그 비용함수 (the elevation)와 그 위도의 결과와 그 위치의 경도를 압니다.

The GA has methods such as crossover and mutation to steer us into the correct portions of the solution space, akin to the topographic maps that can be stored in many GPS systems to point us in the direction of the lowest point.
GA는 최하의 포인트의 방향에서 우리를 지적하기 위해 많은 GPS 시스템에 저장될 수 있는 지형학의 맵과 유사한 해법 공간의 올바른 부분 안으로 우리를 조종하기 위해 교차로와 변화와 같은 방법을 가지고 있습니다.

The tool itself is rapidly evolving to work in new ways to solve bigger problems in much larger topological landscapes.
도구 그것 자신은 많이 더 큰 topological한 경치에서 더 중대한 문제를 해결하는 새로운 방법에서 일하기 위해 빨리 발전하고 있습니다.

Koza et al.
Koza et al

(2003) have submitted patent applications on genetically programmed inventions.Yet they have only scratched the surface of genetic programming and evolvable hardware.
(2003) genetical 작성된 그들이 단지 유전학의 프로그래밍과 evolvable 하드웨어의 표면을 긁은 inventions.Yet에 대한 특허 응용을 제출하세요.

How many of the inventions of the future will be done with computer intelligence?
그 미래의 얼마나 많은 발명은 컴퓨터 지능과 함께 될까요?

We saw in Chapter 4 how GAs are being used to produce new forms of music and art.
우리는 Chapter 4에 보았습니다. 어떻게 GA는 새로운 생산물에 익숙하는 것이 음악과 예술 중에서 형성된다는 것입니다.

Many of those applications (but not all) had some interface with a human critic to help train the algorithm on what is "good". Does the computer become the artist?
그 응용 (but not all)의 다수는 사람의 비판자로 몇몇의 인터페이스를 가지고 있었습니다. 그 알고리즘을 훈련시키는 것을 돕기 위해, 어울려진 "좋습니다". Does 컴퓨터는 무엇에서 그 예술가입니까?

We humans are constantly evolving new ways of looking at the world and doing things.We are always inventing new problems and new ways of solving them.
우리 인간은 세계를 보고 하는 things.We가 그들을 해결하는 새로운 문제와 새로운 방법을 항상 발명하고 있는 새로운 방법을 끊임없이 발전시키고 있습니다.

That is what we call progress.
그것은 무엇, 우리, 호출 처리중을 있습니다.

The relatively new invention of the GPS has revolutionized our ability to know exactly where we are when hiking.
우리가 하이킹할 때 있는 GPS의 상대적으로 새로운 발명은 정확히 아는 우리들의 능력을 혁명을 일으켰습니다.

The GA has demonstrated that it can easily solve many traditionally challenging optimization problems.
GA는 그것이 전통적으로 최적화 문제를 도전하는 다수를 쉽게 해결할 수 있음을 증명했습니다.

We immediately found new uses for our new tools.
우리는 우리들의 새로운 도구에 대한 사용을 곧 새롭다고 판단했습니다.

We combine our new tools with other evolving tools.
우리는 도구를 발전시키는 우리들의 새로운 도구와 다른 몇몇을 결합합니다.

We put GPS devices in cell phones in the same way we use GAs to train artificial neural networks.
우리는 GPS 장치를 넣었습니다. 같은 방식으로 셀룰라 폰, 우리는 인공적인 신경의 네트워크를 훈련시키기 위해 GA를 사용합니다.

Automotive navigation is being revolutionized by the GPS, just as major scheduling problems are being solved by the GA.
자동 추진의 항해는 문제가 중요한 계획하면서 GA에 의해 해결되고 있는 것처럼 GPS에 의해 혁명을 일으켜지고 있습니다.

The GPS is being used in guiding satellite clusters and the GA is being used to improve the design of airplanes.
GPS는 위성 클러스터를 인도하는 데 있어서 사용되고 있고 GA는 비행기의 설계를 개선하는 데 이용되고 있습니다.

It is a never ending process and that is what makes life, and its changes, interesting.
그것은 끝나지 않는 과정이고 그것은 무엇이 생활일생, 그리고 그것의 재미있는 변화잔돈를 만드는지입니다.

Add new attachment

Only authorized users are allowed to upload new attachments.
« This page (revision-) was last changed on 17-5월-2021 01:15 by UnknownAuthor