Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1598-6721(Print)
ISSN : 2288-0771(Online)
The Korean Society of Manufacturing Process Engineers Vol.16 No.6 pp.125-132
DOI : https://doi.org/10.14775/ksmpe.2017.16.6.125

Prediction of Machining Performance using ANN and Training using ACO

Soo-Cheol Oh# Department of Systems Management & Engineering Pukyong National University Busan Korea
Corresponding Author : scoh@pknu.ac.kr+82-51-629-6483 +82-51-629-6478
20170818 20170913 20171010

Abstract

Generally, in machining operations, the required machining performance can be obtained by properly combining several machining parameters properly. In this research, we construct a simulation model, which that predicts the relationship between the input variables and output variables in the turning operation. Input variables necessary for the turning operation include cutting speed, feed, and depth of cut. Surface roughness and electrical current consumption are used as the output variables. To construct the simulation model, an Artificial Neural Network (ANN) is employed. With theIn ANN, training is necessary to find appropriate weights, and the Ant Colony Optimization (ACO) technique is used as a training tool. EspeciallyIn particular, for the continuous domain, ACOR is adopted and athe related algorithm is developed. Finally, the effects of the algorithm on the results are identified and analyzsed.


ANN을 이용한 절삭성능의 예측과 ACO를 이용한 훈련

오 수철# 부경대학교 시스템경영공학부

초록


    Pukyong National University

    © The Korean Society of Manufacturing Process Engineers. All rights reserved.

    This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

    1.서 론

    공작기계인 선반에서 수행하는 선삭작업은 기계 가공 산업에서 널리 사용되며 중요한 절삭공정 중 의 하나이다. 선삭공정의 입력 매개변수에는 절삭 속도, 이송, 절삭깊이, 냉각방법 등 여러 가지가 있다. 또한 출력 변수에는 표면거칠기, 공구수명, 진동, 전류 소모량 등이 있으며 이것들은 입력 매 개변수에 의해 영향을 받는다.

    선삭공정에서 입력변수와 출력 변수간의 관계를 모델링하는 연구는 여러 가지가 있는데 Ezilarasan et al.[4]은 절삭력, 플랭크마모, 표면거칠기를 예측 하기 위하여 RSM(Response Surface Methodology) 방법을 이용한 경험적 모델을 제시하였다. Ahilan et al.[1]은 신경망(neural network) 모델을 개발하였 는데 Back Propagation(BP), 유전 알고리즘, Particle Swarm Optimization (PSO) 등의 방법을 이용하여 training을 하는 하이브리드 모델을 제시하였다. Punuhsingon & Oh[2]에서는 BP와 PSO의 두 가지 방법을 이용하여 신경망을 training하는 모델을 제 시하였다.

    본 연구에서는 선삭가공에서 출력변수 값을 예 측하기 위하여 Artificial Neural Network (ANN)을 이용한 시뮬레이션 모델을 제안하는데 모델 내에 서 입력변수로서는 절삭속도, 이송, 절삭깊이가 사 용되고 출력변수로서는 표면거칠기와 전류소모량 이 사용된다. ANN의 응용에서는 네트워크내의 적 정한 가중치를 찾고 조정하는 것이 핵심인데 이 가중치를 조정하기 위하여 Ant Colony Optimization (ACO)의 방법을 이용한다. 원래 ACO는 이산 최 적화 문제를 해결하기 위하여 고안되었는데[3], 변 수들이 연속적인 영역에 속하는 경우에는 직접적 으로 응용하기는 곤란하다. Socha and Dorigo[7], Socha and Blum[8]에서는 변수들이 연속적인 경우 에 적용할 수 있는 ACO 기법을 제안하고 이를 ACOR 라 명명하였다. Pandian[6]은 ACOR 기법을 이용하여 신경망을 training하는데 기계가공이 아 닌 식량생산 분야의 모델에 적용하고 있다. 본 연 구에서는 선삭가공 공정을 대상으로 모델을 구축 하는데 ANN 내의 수치 가중치를 최적화하기 위 하여 ACOR 기법을 응용한 알고리즘을 제시하고 ACOR 내에서 변수들이 출력에 어떠한 영향을 끼 치는지 검토하고 분석하였다.

    2.본 론

    2.1.Artificial Neural Network

    Artificial Neural Network(ANN)은 생체모방 신경 망의 정보처리 시스템으로 단순하지만 상호 연결 된 많은 처리단위들로 구성되고 인간 또는 유기체 의 뇌의 신경계를 시뮬레이션 하는데 사용된다[9]. ANN은 하나의 레이어(layer) 또는 다중레이어로 구성된다. 각 레이어는 다수의 뉴런(neuron) 들을 포함하며 하나의 레이어와 다른 레이어의 뉴런들 간의 연결에는 가중치가 연계되어 있다. ANN은 일련의 입력을 적용하면 원하는 일련의 출력을 산 출할 수 있도록 학습을 시킬수 있는데 이것을 training 이라 한다. training은 입력 벡터를 순차적 으로 적용하면 정해진 절차에 따라서 신경망의 가 중치를 조절하는 식으로 수행된다.

    일반적인 응용에서는 주로 다중레이어 신경망을 사용하는데 이것은 하나의 입력 레이어, 하나 이 상의 hidden 레이어, 하나의 출력 레이어로 이루어 져 있다. Back propagation(BP)은 다중레이어 신경 망의 가중치를 반복적으로 해결하는 일반적인 방 법이다. BP 알고리즘은 목적함수를 최소화하도록 설계된 하나의 최적화 기법인데 공통적으로 사용 되는 목적함수는 자승에러(squared error)이며 아래 와 같다.

    ε 2 = [ T Φ ] 2

    여기서 T는 목표하는 출력값, Φ는 뉴런의 출력, ε는 에러 항목을 나타낸다. 본 연구에서는 선삭가 공 모델을 구축하는데 ANN을 사용하며 ANN에 절삭변수를 입력하면 절삭성능을 예측할 수 있다. 실제 실험에 의한 관찰값과 ANN을 이용한 예측 값의 차이를 최소화하기 위해서는 신경망을 구성 하는 적절한 가중치 값을 찾아야 한다.

    2.2.Ant Colony Optimization

    Ant Colony Optimization(ACO)는 Dorigo et al.[3] 에 의해 1990년대 초에 이산(discrete) 최적화 문제 에 응용하기 위해 도입된 최적화 기법이다. ACO 의 기원은 사회적 곤충, 새의 무리들이 갖는 어떤 속성을 최적화 유형의 업무에 적용하는 것을 연구 하는 집단지능(swarm intelligence)이라고 부르는 분야에 소속되어 있다. 실제로 개미집단의 최단 경로 발견 능력은 최적화 문제를 해결하기 위하여 인공적 개미집단(artificial ant colonies)이라는 분야 에서 깊이 탐구되고 있다.

    2.3.Continuous ACO

    ACO 알고리즘은 초기에는 조합 최적화 문제 (Combinatorial Optimization Problems: COPs)들을 해결하는데 도입되었다. COPs의 예는 스케듈링, 차량경로 선정, 시간표 작성 등이 있다. 한편, COPs의 유형이 아닌 중요한 문제 유형들이 있는 데 연속변수들의 값을 선택하도록 요구하는 최적 화 문제 집단이다. 이러한 문제들은 연속적인 허 용값들의 영역을 유한 집합으로 변환하고 나서 조 합 최적화 알고리즘을 적용하여 해결할 수 있는데 이것은 항상 편리한 것은 아니다. 특히 초기의 가 능 영역이 방대하거나 해의 해상도가 매우 클 때 는 그러하다. 이런 경우에는 연속변수들을 근원적 으로 취급할 수 있는 알고리즘이 일반적으로 훨씬 잘 작동한다.

    초창기의 ACO 기법을 연속 최적화 문제에 적 용하기 위한 연구들이 있었으나, 대부분의 방법들 은 원래의 ACO 골격을 따르지 않는다. 그 이후 ACO를 연속적인 영역에 적용할 수 있도록 확장 한 ACOR 이라는 방법이 Socha and Dorigo[7], Socha and Blum[8]에 의해 제안되었고 최근까지는 ACO의 기본 성격에 가장 근접된 형태의 변형으 로 간주되고 있다. ACOR의 기본적인 아이디어는 ACO가 이산적인 확률분포를 사용하는 것과 달리 연속적인 확률밀도 함수를 사용하는 것이다.

    2.3.1.ACOR 내에서 페로몬의 표현

    Socha and Dorigo[7]는 ACO를 연속적인 영역에 적용할 수 있도록 확장한 ACOR을 제안하였다. ACOR 에서는 유한개의 해(solution)들을 아카이브 (archive) T 라는 명시적 메모리 내에 저장하고 유 지한다. 즉, n차원 문제의 각각의 해 sj 에 대해서 n개 변수들의 값과 목적함수 값 f(sj)을 저장한다. j번째 해의 i번째 변수는 sji 로 표기한다.

    먼저, 해의 구성성분 또는 변수들을 사용하여 동 적으로 확률밀도함수 (Probability Density Function: PDF)를 생성한다. 저장된 해의 집합에 의거하여 PDF를 생성하는 방법은 아래와 같다. 가우스 함 수들에 근거한 PDF를 사용하는데 약간 개선된 형 태인 가우스 커널 PDF를 사용한다. 가우스 커널 (gaussian kernel)은 여러 개의 일차원 가우스 함수 g j i ( x ) 의 가중합으로 정의하며 이것을 Gi(x)로 명명 한다.

    G i ( x ) = j = 1 k ω j g j i ( x ) = j = 1 k ω j 1 σ j i 2 π e ( x μ j i ) 2 2 ( σ j i ) 2
    (1)

    여기서 ω는 개별 가우스 함수들과 관련된 가중치 벡터, μi는 평균 벡터, σi는 표준편차 벡터이다. 이 와 같이 가우스커널 PDF Gi 는 3개의 벡터 ω, μi, σi 의 매개변수들로 이루어지며 아카이브 내의 해 들은 이 매개변수들의 값을 계산하는데 사용된다. 아카이브에 저장된 해의 개수는 k로 설정하고, 이 매개변수는 PDF의 복잡도를 결정한다. k개의 개 별 가우스 함수들이 가우스커널 PDF를 구성한다, 각 차원 i = 1,2,...,n 에 대해서 각각 다른 가우스 커널 PDF Gi 가 정의된다. 각 Gi 에 있어서 k개의 모든 해의 i번 째 변수값들은 벡터 μi 의 요소들이 된다.(2)

    μ i = { μ 1 i , , μ k i } = { s 1 i , , s k i }
    (2)

    가중치 벡터 ω는 아래의 방식으로 만들어진다. 아 카이브 T에 추가되는 각 해는 목적함수 값을 계 산하여 평가되고 서열화된다. 그리고 아카이브 내 의 해들은 서열순으로 저장된다. 각 해는 해의 품 질에 비례하는 관련된 가중치 ω를 갖는다. 해 sj 의 가중치 ωj는 아래 공식에 따라 계산된다.

    ω j = 1 q k 2 π e ( j 1 ) 2 2 q 2 k 2
    (3)

    여기서 가중치는 가우스 함수의 값으로 정의된다. 함수의 인수는 j, 평균은 1.0, 표준편차는 qk이 다. q는 알고리즘의 매개변수이다. q가 작으면 서 열이 높은 해들이 더 강력한 우선권을 갖는다. 각 각의 가우스 커널 PDF Gi의 최종 형상을 찾기 위 해서 표준편차 벡터 σi도 정의해야 한다. 단계 i에 서 표준편차 σ j i 를 결정하기 위해서 아래의 식이 사용된다.

    σ j i = ξ e = 1 k | s e i s j i | k 1
    (4)

    이때 매개변수 ξ(>0)는 ACO에서의 페로몬의 증발 율과 유사한 효과를 갖는다. ξ의 값이 클수록 알 고리즘의 수렴속도는 떨어진다. ACO내에서는 페 로몬의 증발율은 장기기억에 영향을 주지만 ACOR에서는 ξ는 장기 기억이 사용되는 방법에 영향을 미친다.

    2.3.2.ACOR 의 골격

    1)아카이브 T의 초기화

    초기해의 생성은 검색 영역 (a,b)에 걸쳐 균일분 포를 생성하는 방식으로 수행한다. 이것은 균일하 게 분포된 평균을 갖는 k개의 정규분포를 수행함 으로서 생성한다. 즉 아카이브 T의 초기화는 균일 랜덤샘플링에 의해 k개의 해를 생성하는 것이다.

    2)해의 구축

    의사결정변수 Xi (i=1,2,...n)가 주어지면 n개의 단계를 수행하여 하나의 해를 구축한다. 먼저 단 계 i에서 변수 Xi 값을 하나 선택한다. 앞에서 서 술했듯이 가우스커널 PDF는 여러 개의 정규 가우 스 함수들로 구성된다. 함수들의 개수는 아카이브 의 크기 k와 동일하다. 단계 i에서는 오로지 i번째 차원에 대한 정보만 사용되며, 각 단계마다 최종 가우스커널 PDF Gi는 구분되어 진다.

    식 (1)에 따라 PDF Gi를 정의하기 위해 벡터 ω, μi, σi의 값들이 정의되어야 한다. 실제 샘플링 과 정은 다음과 같이 진행된다. 먼저, 가중치 벡터 ω 의 요소들을 식 (3)에 따라 계산한다. 그 다음, 샘 플링은 두 단계로 이루어진다. 첫 단계는 가우스 커널을 구성하는 가우스 함수들 중의 하나를 선택 하는 것이다. 즉 아카이브 내에서 대응하는 가중 치에 따라 하나의 해를 선택하는 것과 동일하다. j번째 가우스 함수를 선택하는 확률 pj는 다음과 같다.(5)

    p j = ω j r = 1 k ω r
    (5)

    두 번째 단계는 선택된 가우스 함수를 샘플링하는 것이다. 이것은 매개변수화 정규분포에 따라 난수 를 생성할 수 있는 난수생성기를 사용하거나 균일 난수생성기를 사용하여 수행할 수 있다. 예컨대 첫 단계에서 선택된 해의 첫 번째 변수 s j 1 을 중심 으로 하는 가우스 함수를 샘플링하여 난수를 생성 하고 할당한다. 이 단계를 점진적으로 구축하여 하나의 해를 생성한다. 이러한 두 단계 샘플링은 식 (1)에 정의된 가우스커널 PDF Gi를 샘플링하는 것과 동일하다. 단계 i에서는 선택된 단일 가우스 함수 g j i ( x ) 를 위해 표준편차도 주어져야 한다. 이 때 표준편차 벡터 σi 전체를 계산할 필요는 없고 σ j i 만 알면 된다. 이러한 전반적인 과정이 각 차원 i (1,...,n)에 대해서 반복되고, 그 때마다 표준편차 σ j i 가 단일 차원 i의 사용과 함께 계산된다.

    3)페로몬 갱신

    앞서 언급했듯이 ACOR 의 경우에는 페로몬 정 보가 하나의 아카이브로써 저장된다. 이것은 페로 몬 갱신 절차는 이 아카이브 상에 어떤 갱신 작업 을 해야 하는 것을 의미한다. 아카이브 T의 크기 k는 알고리즘의 매개변수이다. 그러나 k는 해결할 문제의 차원의 수 보다 적지 않을 수도 있다. 페 로몬 갱신은 새로 생성된 해들을 아카이브 T에 추가하고 동일한 수의 최악의 해들을 제거함으로 써 수행된다. 따라서 아카이브의 원래 크기는 변 하지 않는다. 이러한 과정을 거침으로써 아카이브 내에는 최상의 해들만 유지된다.

    2.4.ACOR 알고리즘의 구조

    ACO를 연속 최적화 문제에 효과적으로 응용할 수 있는 방법을 제안한다. 즉, ANN의 적정 가중 치를 찾기 위하여 training 과정 동안에 연속적인 가중치 변수를 조절하여 나간다. 본 연구에서는 최적의 가중치를 찾기 위하여 BP 대신에 ACOR을 사용하며, 신경망 모델의 목적함수는 Mean Squared Error(MSE)를 사용하며 ε2/n 으로 나타낸 다. 여기서 n은 해(solution)벡터 내의 해의 개수를 나타낸다.

    ANN을 training 하는데 사용하는 ACOR 알고리 즘의 구체적인 절차는 다음과 같다.

    • (단계 1) 아카이브 T를 구성하기 위하여 k개의 초기해를 생성한다. 각 해의 변수값은 ANN을 구 성하는 가중치를 나타낸다.

    • (단계 2) 생성된 각 해의 목적함수를 계산한다. 해의 목적함수는 ANN의 최종 출력에 의해 결정 되는 MSE 값을 나타낸다.

    • (단계 3) k개의 해들을 목적함수 값에 따라 오 름차순으로 정렬한다.

    • (단계 4) 가중치 계산에 필요한 매개변수 q 값 을 지정하고 이를 이용하여 k개 해들의 가중치를 계산한다.

    • (단계 5) 신규해의 개수 nos와 개선해의 집단을 반복적으로 생성하는 횟수 N을 지정한다.

    • (단계 6) ij=1로 지정한다

    • (단계 7) i=1로 지정한다.

    • (단계 8) k 개의 해 가운데 하나의 해를 선택한다. 해를 선택할 때 roulette wheel 방법[5]을 이용한다.

    • (단계 9) 선택된 해를 이용하여 샘플링을 함으 로서 새로운 해를 생성한다.

      i<nos 이면 i=i+1 로 지정하고 단계 8로 간다. 아니면 다음 단계로 간다.

    • (단계 10) 생성된 nos개의 신규해들의 목적함수 값을 계산한다.

    • (단계 11) 새로 생성된 해들을 서열에 맞추어 아카이브 T에 추가한다.

    새로 생성된 해가 아카이브 내에 있는 기존해보 다 우수하면 아카이브에 투입하고 아니면 투입하 지 않는다. 그리고 나서 투입된 수와 같은 수의 최악의 해들을 아카이브에서 제거한다. 결국 아카 이브의 크기 T는 변하지 않으며 최상의 해들만 아카이브 내에 유지된다. ij<N 이면 ij=ij+1 로 지 정하고 단계 7로 간다. 아니면 다음 단계로 간다. (단계 12) k개 해들의 MSE 값 중에서 최소값을 찾고 종료한다.

    3.실험 및 분석

    3.1.실험 계획

    본 연구에서는 선삭공정을 시뮬레이션하는 모델을 구축하기 위하여 ANN을 사용한다.

    시뮬레이션 모델의 구체적인 내용은 2.4절의 알고 리즘을 이용하여 구축하고 이를 위한 컴퓨터 프로 그램용 code는 MATLAB7 언어를 사용하여 작성 하였다.

    선삭공정에서 사용하는 입력변수는 절삭속도 (cutting speed:V), 이송(feed:f), 절삭깊이(depth of cut:d)의 세 종류를 사용하며 출력변수는 표면조도 (Surface roughness:SR)와 전류소모량(Electric current consumption: ECC)을 사용한다. Punuhsingon and Oh[2]에서는 선삭공정을 대상으 로 세 종류의 입력변수를 사용하여 실험조건에 맞 추어 실제적으로 선삭가공을 하고 결과값을 측정 하였다. 실험조건은 절삭속도, 이송, 절삭깊이의 세 변수 각각에 대하여 세 종류의 레벨값을 사용 하였다. 그리고 각 변수의 레벨값들을 조합하여 19개의 입력 조건을 만들고 각 입력 조건에 대응 하는 표면조도와 전류소모량의 출력값 즉, 실험값 을 얻었고 그 결과는 Table 1에 주어져 있다. 본 연구에서는 Table 1의 입.출력 데이터를 이용하여 시뮬레이션 모델을 구축한다. 모델을 구축하는데 사용하는 ANN은 다중 레이어 신경망을 사용하는 데 이것은 한 개의 입력 레이어, 두 개의 hidden 레이어, 한 개의 출력 레이어로 이루어져 있다. 각 레이어의 뉴런의 개수는 입력 레이어는 3개, 첫 번째 hidden 레이어는 12개, 두 번째 hidden 레이 어는 6개, 출력 레이어는 2개로 이루어져 있다. 이 와 같은 구조를 갖는 ANN에 Table 1에 주어진 입 력 데이터를 적용하였다. ANN을 training하기 위 하여 ACOR 알고리즘을 적용하고 ACOR이 ANN의 training에 어떤 영향을 미치는지를 검토 및 분석 하였다.

    3.2.실험결과 및 분석

    시뮬레이션에 사용되는 매개변수는 k, nos, q, ξ, N의 다섯 종류이다. 매개변수 k는 초기해의 집단 인 아카이브의 크기 즉, 초기해의 개수를 나타낸 다. 변수 nos는 개선해 집단의 크기 즉, 아카이브 에 추가되는 해들의 최대 개수를 나타낸다. q는 가중치 계산에 사용되며 ξ는 식 (4)에서 표준편차 의 계산에 사용된다. q가 작으면 최고 순위의 해 들이 강한 우선권을 가지며 q가 크면 해를 선택하 는 확률은 더욱 균일하게 되고, 한편 ξ는 그 값 이 클수록 알고리즘의 수렴속도가 늦어지며, 즉 하위등급의 해가 빨리 잊혀진다[6]. N은 개선해의 집단을 반복적으로 생성하는 횟수를 나타낸다.

    위에 주어진 매개변수들을 투입하여 시뮬레이션 프로그램을 가동시키고 최종해가 되는 MSE 값을 산출하였다. 우선 매개변수 k의 값은 {15, 20, 25, 30, 40}의 5종으로 설정하여 프로그램을 가동시켰 다. nos의 값은 10을 사용하였다. 사전에 nos의 값 을 몇 가지 바꾸어 결과를 분석하였으나 별다른 차이가 없었기 때문에 nos가 10인 경우의 결과만 제시하였다. ξ는 Pandian[6]의 연구와 동일한 조건 인 {0.75, 0.8, 0.85, 0.9}의 네 종류의 값을, q는 {0.06, 0.07, 0.08, 0.09}의 값을 사용하였다. ξ와 q 의 값을 조합하면 16가지 경우의 수가 생기는데 각각의 k 값에 대하여 ξ와 q를 조합하여 16회의 시뮬레이션을 실시하였다. N의 값은 200과 500을 사용하였다. Table 2에서는 nos=10, N=200을 사용 하여 시뮬레이션을 수행한 결과를 보여주고 있다. Table 2에서는 각각의 k값에 대하여 ξ와 q를 조합 하여 투입했을 때 산출되는 16개의 결과값 중에서 상위 세 개의 값을 선택하여 굵은 활자로 표시하 였고 특히 k값의 각 열 중에서 최소값은 (*) 표시 를 하여 나타내었다.

    k는 다섯 개의 값을 사용하는데, 다섯 개의 각 열에서 상위값 세 개씩를 선택하여 비교해 보면 k가 15보다는 20~40인 경우에 상대적으로 좋은 결과 를 보여주고 있다. k가 20, 25, 30, 40인 경우를 서로 비교하면 이들 간에는 의미있는 차이가 나타 나지 않는다. Table 2 내에서 전체적인 최소값은 k가 20인 경우에 0.0407임을 알 수 있다. ξ는 네 가지 값을 사용하는데, 다섯 개의 각 열마다 굵은 활자로 표시한 상위값 세 개를 비교해 보면 ξ가 0.85와 0.9에 이 값들이 집중되어 있다. 이로부터 ξ는 0.75와 0.8보다는 0.85와 0.9인 경우에 더욱 좋은 결과를 나타내고 있음을 알 수 있다. q의 경 우는 Table 4에서 살펴보기로 한다.

    Table 3에서는 Table 2의 결과를 보다 세밀하게 분석하기 위하여 다섯 가지 매개변수의 조합을 조 정하고 시뮬레이션한 결과를 보여주고 있다. nos 는 Table 2와 동일하게 10을 사용하고 N을 500으 로 증가시키고 ξ는 0.85와 0.9를, k값은 20, 25 30, 40의 값을 사용하고 q는 Table 2와 동일한 조건을 사용하여 시뮬레이션을 실시하였다. Table 3에서 각각의 k값에 대하여 산출되는 여덟 개의 결과값 중에서 상위 세 개의 값을 선택하여 굵은 활자로 표시하였고 특히 k값의 열 중에서 최소값은 (*) 표시를 하여 나타내었다. N의 경우는 Table 23 을 비교해 보면 그 값이 커질수록

    MSE 값이 감소하여 결과가 좋아지는 것을 알 수 있으며, 반면 값이 커질수록 시뮬레이션 운용 시간은 증가한다. Table 3에서 ξ를 기준으로 검토 하면 전체적인 결과값 중에서 상위값 세 개의 분 포는 ξ가 0.85인 경우는 7회, 0.9인 경우는 5회로 비슷한 형태를 보여주고 있다. 각 열에서 최상의 값의 분포만 보더라도 0.85인 경우는 2회, 0.9인 경우는 2회로 비슷하다. 따라서 ξ 값 0.85와 0.9 사이에는 결과에 의미있는 차이가 없음을 알 수 있다. k가 20, 25, 30, 40인 경우를 비교하기 위 하여 각 열에서의 상위값 세 개를 살펴보면 Table 2와 마찬가지로 네 개의 열 사이에는 의미있는 차 이가 나타나지 않는다. 네 개의 열 중에서 최소값 은 k가 25일 때 0.155를 보인다.

    Table 4는 Table 3을 대상으로 하여 q값을 기준 으로 다시 정렬한 것이다. Table 4에서 상위값 세 개와 최상의 값을 기준으로 살펴보면 q 값의 변화 에 따른 뚜렷한 특징을 찾아볼 수가 없다. 따라서 q값의 변화는 시뮬레이션의 결과에 별다른 영향을 미치지 않는다고 판단할 수 있다.

    Table 2, 3, 4에 주어진 결과들을 요약하면 다음 과 같이 정리할 수 있다. k는 초기해의 개수를 나 타내는데 20~40의 영역에서 좋은 결과를 나타내 며 구체적으로 k가 20, 25, 30, 40 인 경우에 이 값들 간에는 시뮬레이션의 결과에 큰 차이가 나타 나지 않는다. 매개변수 nos는 개선해 집단의 크기 를 나타내는데 기본적으로 10을 사용하며 그 이상 의 값을 사용해도 결과에 별다른 영향을 미치지 않는다. ξ는 0.75와 0.8보다는 0.85와 0.9인 경우 에 좋은 결과를 나타내고 있는데 이는 ξ값이 커 질수록 결과가 좋아지는 것을 의미한다. q는 가중 치 계산에 사용되는데 0.06, 0.07, 0.08, 0.09의 4종 의 값을 사용하였는데 값의 변화에 따른 결과값의 차이가 뚜렷하게 나타나지 않는다. N은 개선해의 집단을 반복적으로 생성하는 횟수를 나타내는데 N의 값이 커질수록 MSE 값이 감소하며 결과가 좋아진다. 종합적으로 정리하면 시뮬레이션 결과 에 가장 큰 영향을 미치는 매개변수는 ξ와 N이며 나머지 매개변수들은 본 연구에서 제시한 값을 사 용하면 될 것으로 판단된다.

    4.결 론

    본 연구에서는 선삭공정의 가공 모델을 구축하기 위하여 ANN을 사용하여 시뮬레이션모델을 구축 하는 방법을 제시하였다. ANN의 핵심적인 구성요 소인 가중치를 찾기 위한 training 방법은 다양한 데 본 연구에서는 ACOR 에 의한 training 방법과 이를 구현하는 구체적인 알고리즘을 제시하였다. 나아가서는 ACOR을 구성하는 여러 가지 매개변 수가 ACOR의 성능에 미치는 영향을 조사하기 위 하여 매개변수들의 조합을 검토하고 분석하였다. 결론적으로 k는 20~40의 값을, nos는 10의 값을, ξ 는 0.85~0.9의 값을, q는 0.06~0.09의 값을, N은 500 이상의 값을 선택하면 되는 것으로 정리할 수 있다.

    후 기

    ‘이 논문은 부경대학교 자율창의학술연구비(2016 년)에 의하여 연구되었음’

    Figure

    Table

    Observation data

    Simulation result 1 nos=10, N=200

    Simulation result 2 nos=10, N=500

    Simulation result 3 nos=10, n=500

    Reference

    1. Ahilan (2013) Modeling and prediction of machining quality in CNC turning process using intelligent hybrid decision making tools. , Appl. Soft Comput., Vol.13 (3) ; pp.1543-1551
    2. CharlesS.C. (2015) Prediction of Surface Roughness and Electric Current Consumption in Turning Operation using Neural Network with Back Propagation and Particle Swarm Optimization. , Journal of the Korean Society of Manufacturing Process Engineers, Vol.14 (3) ; pp.65-73
    3. DorigoM. ManiezzoV. ColorniA. (1996) Ant System: Optimization by a colony of cooperating agents. , IEEE Trans. Syst. Man Cybern. B Cybern., Vol.26 (1) ; pp.29-41
    4. Ezilarasan (2013) An experimental analysis and measurement of process performances in machining of nimonic C-263 super alloy. , Measurement, Vol.46 (1) ; pp.185-199
    5. GenM. ChengR. (1997) Genetic algorithms & Engineering Design., John Wiley & Sons,
    6. PandianA. (2013) Training neural networks with ant colony optimization, Master thesis, California State University,
    7. SochaK. DorigoM. (2008) Ant colony optimization for continuous domains. , Eur. J. Oper. Res., Vol.185 (3) ; pp.1155-1173
    8. SochaK. BlumC. (2007) An ant colony optimization algorithm for continuous optimization: application to feed-forward neural network training. , Neural Comput. Appl., Vol.16 (3) ; pp.235-247
    9. WassermanP.D. (1989) Neural Computing: Theory and Practice., Van Nostrand Reinhold,