1. 서 론
4차 산업혁명 시대에 무기체계는 지능화, 무인화 및 복합체계화(SoS, System of Systems) 되고 있다. 우리나라의 무기체계 획득정책은 국내 연구개발과 상용품 구매를 우선으로 추진하고 있다. 기술성숙도평가(TRA, Technology Readiness Assessment)는 현재의 국내 기술수준을 정량적으로 평가하여 국내 연구개발 가능성에 대한 판단과 위험관리를 위한 핵심도구로 활용되고 있다.
2000년대 초반 도입된 우리나라의 TRA 제도는 무기체계 연구개발사업에 적용되어 국내환경에 적합하도록 지속 개선되었다. 하지만 현재의 TRA는 여전히 하드웨어 중심의 기술성숙도(TRL, Technology Readiness Level)를 활용하기 때문에 개별기술의 독립적 평가에는 적합하나 시스템 수준의 평가에는 한계가 있다. 또한 모호한 문구를 포함한 Check List 기반 평가로 주관이 개입되기 쉽다. 이러한 한계 극복을 위해 통합성숙도(IRL, Integrated Readiness Level)와 체계성숙도(SRL, System Readiness Level)에 대한 연구가 진행 되었지만 그 결과가 제도화 되지는 않았다.
본 연구는 체계공학(SE, System Engineering)의 시스템 통합 관점에서 TRA 절차와 기준을 재정의하여 현재의 TRL과 TRA가 가진 한계를 극복하고 좀더 쉽고 직관적인 평가가 가능하도록 개선된 TRA 프레임워크를 제안한다.
2장에서는 TRA 제도와 TRA 관련 선행연구 분석을 통해 핵심 이슈를 도출하였으며 이를 해결하기 위한 TRA 프레임워크를 설계하여 제시한다. CTE(Critical Technology Element) 선정방법은 기술적 WBS 작성법에서부터 시스템통합 관점의 TE(Technology Element)와 CTE을 도출하고 선정하는 구체적인 방법을 제시한다. 특히 주요 ROC(Required Operational Capability) 정량목표, 개발 난이도 및 COTS (Common Off The Shelf) 기술 적용여부를 활용한 방법은 주관적 평가 개입을 최소화 할 수 있다. TRA 수행 측면에서는 HW, SW 및 인터페이스 측면에서 TRL을 재정의하여 시스템 통합관점에서 기술성숙도를 평가할 수 있도록 한다. Case Study를 통해 제안 프레임워크를 단계별로 적용하여 그 실효성을 확인한다. 끝으로 3장에서는 결론을 맺기로 한다.
2. 본 론
우리나라는 국방전력발전업무 훈령에 따라 국내개발과 상용품 구매를 우선으로 무기체계를 획득한다[1]. 2021년부터 방위사업청은 국내 방위산업 발전과 국방과학기술수준 제고를 목적으로 한국산 우선 획득제도를 추진하고 있다[2].
우리군의 TRA는 2006년 방위사업청이 개청되고 (구)방위력개선사업관리규정에 제도적 근거를 마련하였다. 2011년까지 다양한 사업에서 TRA가 수행되었으나 구체적인 가이드라인의 부재로 그 결과를 실제 사업추진여부 결정 근거로 활용하기에는 제한되었다. 하지만 2011년 방위사업청이 기술성숙도 부족으로 인한 사업실패 위험을 미리 예방하기 위해 TRA를 적극 추진함으로써 TRA는 국내 연구개발 사업 추진을 위한 핵심 의사결정 도구 중 하나로 자리매김 하였다[3].
TRA는 방위사업청에서 정한 기술성숙도평가 업무지침(2019)에 따라 수행한다. 무기체계사업에서는 선행연구, 탐색개발, 탐색·체계개발 통합 추진사업 그리고 기술개발사업에서는 신개념 기술시범사업 및 핵심기술 연구개발사업(시험개발)이 TRA 대상이 된다. TRA는 ①사전 준비, ②핵심기술요소(CTE) 선정, ③평가 순으로 수행한다[4].
미 NASA는 TRA Best Practices Guide(2020)[5], DoD는 TRA Guidance(2011)[6], GAO는 TRA Guide(2020)[7]을 통해 TRA 기준, 절차 및 지침을 제공하고 있다. 모든 가이드는 명확한 CTE 도출과 독립된 전문가팀이 참여하는 객관적 TRA 평가를 강조한다. 미 DoD는 2011년 획득 프로그램 절차 간소화를 추진하였다. 그 결과로 TRA는 주요 국방 획득 프로그램(MDAP, Major Defense Acquisition Program)과 기술적 위험이 존재하는 사업에 한하여 수행하도록 했다. DoD TRA 가이드(2011)는 기존 주요 의사결정 시점마다 TRL 목표 달성을 의무화 하던 것을 축소하고 체계개발단계 진입 시점인 마일스톤 B에서만 TRA를 수행하도록 했다[6].
미 NASA와 DoD는 SW TRL에 대한 정의를 사용하지 않고 있으나 미 GAO는 HW TRL과 차이가 있음을 확인하고 SW TRL에 대한 정의를 가이드에 포함한다[7].
TRL 지표는 1974년 미 항공우주국(NASA, National Aeronautics and Space Administration)의 Stan Sadin에 의해 7단계 수준으로 최초 개발되었다[8]. 현재의 TRL은 1990년 9단계 수준으로 정립되어 1995년 Mankins에 의해 체계화 되었다[9]. 이후 NASA의 TRL 지표는 미 국방부, 에너지부 및 국토부를 비롯하여 유럽 우주국 등으로 확대 적용된다.
하지만 9단계의 단일 TRL 지표만으로 TRA를 수행하는 데 제한적이라는 의견이 지속 제기 되었다. 대표적으로 Conford 외(2004)는 NASA의 TRL를 활용한 기술성숙도 평가의 한계점과 도전과제를 제시했다[10]. 이후 미 국방부와 NASA는 TRL 지표와 프로젝트 위험, 비용과의 관계를 정의하는 데 많은 연구를 수행하였고 개별기술에 대한 성숙도 평가방법을 보완하는 시스템 수준의 기술성숙도 평가 연구를 진행하였다.
기술간 통합에 대한 연구는 Mankins(2002)에 의해 시작 되었다. Mankins는 통합기술분석방법론(ITAM, Integrated Technology Analysis Methodology)에서 통합기술지표(ITI, Integrated Technology Index)를 제안했다[11]. 하지만 ITI는 시스템통합 관점을 표현하는데 한계가 있었다.
이에 영국 국방성은 기술통합매트릭스(TIM, Technology Insertion Metrics)를 개발하여 통합성숙도수준(IML, Integration Maturity Level)을 적용한다.
Brian Sauser 외(2009)는 개별기술에 대한 성숙도를 측정하는 TRL의 한계를 벗어나 기술간 인터페이스(IF, Interface) 수준을 측정하는 IRL을 개발하였다[12]. IRL은 CTE간 인터페이스 성숙도를 측정할 뿐만아니라 타 기술과 통합관점의 개선방향을 제공한다. 이후 IRL은 Gove 외(2007)에 의해 7단계서 최종 9단계로 확대되었다.
Brian Sauser 외(2006)는 시스템수준의 기술성숙도 지표인 SRL을 제안했다. SRL은 TRL과 IRL을 이용한 매트릭스로 산출된다. Brian Sauser는 TRL과 IRL 지표를 고려하여 5단계 SRL 지표를 제시하였다[13].
Mankins(2002)는 개별 기술를 성숙시키데 드는 난이도를 표현하는 R&D3(Research and Development Degree of Difficulty)를 제안하였다. Bilbro(2007)는 R&D3와 유사한 개념인 9단계의 AD2(Advanced Degree of Difficulty)를 제안하였다[14].
Olechowski, Eppinger 및 Joglekar(2015)는 전 세계 다양한 산업부문에서의 TRL 사용을 분석하였고 시스템 복잡성, 계획 및 검토, 평가 타당성 측면에서 15가제 개선과제를 제시하였다. Tomaschek, Olechowski, Eppinger 및 Joglekar (2016)는 전 세계 다양한 산업의 TRL 실무자들과 설문을 통해 시스템 복잡도, 기술간 통합 표현, 인터페이스 성숙도 및 시스템 수준 성숙도를 우선순위가 높은 4가지 개선과제로 식별하였다.
국내 무기체계 개발은 SE를 기반으로 수행된다.
복합체계(SoS)는 그림1과 같이 SoS→System→Subsystem→Component→HW/SW 구성요소로 세분화(Breakdown) 될 수 있다. 복합체계의 통합은 Top Down 접근법으로 볼 때 System간 IF, Subsystem간 IF, Component간 IF, HW/SW 구성요소간 IF으로 구체화 된다.
SE 기반 무기체계 연구개발시 통합의 대상과 엔지니어링 활동은 그림27)와 같다. V-Model의 왼편은 Top Down 관점에서 요구사항이 분석, 설계 및 구현되는 과정이다. 작전운용성능(ROC)을 핵심으로 한 요구사항은 운영개념으로 정립된다. 요구사항 분석단계에서 잘 정의된 요구사항은 설계단계 동안 HW/SW 구성항목 설계에 할당된다. 개발자는 구현단계에 요구사항이 반영된 설계대로 HW와 SW를 개발한다. 시스템통합 관점에서 보면 체계 요구사항에 따라 체계 내·외부 인터페이스가 식별되고 설계에 반영된다. IF는 설계대로 구현단계에 개발된다. 시스템통합 대상은 HW/SW 구성항목이 되고 IF는 HW-HW IF, HW-SW IF, SW-SW IF 형태로 구분될 수 있다.
V-Model의 오른편은 Bottom Up 관점에서 HW/SW 구성항목의 단위 검증과 함께 Subsystem, System까지 역순으로 단계별 통합을 통해 검증해 가는 활동(체계통합시험, 개발·운용시험평가)을 나타낸다. 개발된 HW/SW 구성항목이 각각 설계대로 제작, 구현되었는지 단위시험을 통해 확인하고 통합 관점의 IF는 단계별 통합, 검증(Verification) 및 확인(Validation)을 통해 요구사항 충족 여부를 확인한다.
본 연구에서 바라본 시스템통합 관점은 통합의 대상이 HW/SW 구성항목이 되고 IF는 HW, SW 구성항목간 통합의 수단이 된다. 따라서 TRA 대상이 되는 TE와 CTE는 HW, SW, IF 측면에서 구분되어야 하며 TRA 또한 각각 수행되어야 한다.
국내 TRA는 2006년 제도화 되어 현재는 무기체계의 국내 연구개발 추진 여부를 판단하기 위한 핵심 의사결정도구로 활용되고 있지만 여전히 많은 쟁점사항이 존재한다[3].
본 연구에서는 CTE 선정과 TRL/TRA 측면에서 다음과 같은 2가지 핵심이슈를 도출하였다.
첫째, CTE 선정 측면의 이슈는 다음과 같다. CTE는 과도하게 선정되면 정작 중요한 기술에 집중되어야 할 자원의 집중이 분산될 소지가 있고 과소 식별될 경우 요구사항을 충족하지 못하여 시스템 성능을 만족시킬 수 없어 두 경우 모두 사업 성공을 저해하는 요소가 된다[7]. 국내에서 활용되는 CTE 선정 방법은 추상적인 용어가 포함되어 주관이 개입되기 쉬운 Check List 방식을 활용한다. 따라서 CTE 선정 회의시 CTE 진위 여부에 대한 논란이 늘 있다. CTE 선정기준을 명확히 하고 현재의 Check List 방식에서 벗어나 방법론 차원으로 절차를 세분화하여 주관의 개입을 최소화 할 필요가 있다. 현재는 TE부터 CTE까지 HW, SW 및 IF 기술을 별도로 구분하지 않는다. 시스템통합 관점의 TRA가 수행될 수 있도록 HW, SW 및 IF 관점에서 TE와 CTE가 구분될 필요가 있다.
둘째, TRL/TRA 측면에서 보면 국내외 거의 모든 제도권 내에서 사용되고 있는 9단계 TRL은 개별기술에 특화되어 있으며 다음과 같은 한계가 여전히 존재한다. ①주관적인 평가 가능성 ②시스템간 통합을 다루는데 한계성 ③SW 보다는 HW에 집중 ④용어에 대한 정의 부족[10].
이후 이러한 제한사항을 보완하기 위하여 IRL과 SRL에 대한 연구활동이 진행되었으나 제도화 되지 않았다.
IRL은 개별 CTE간 인터페이스 기술을 식별하고 인터페이스 기술 성숙도를 평가한다. SE의 시스템통합 관점에서 보면 통합 대상에 대한 정의, 인터페이스 식별 방법, 인터페이스 소요기술 도출 측면에서 관점과 세부 절차의 보강이 필요하다.
SRL은 기존 TRL과 IRL를 활용한 매트릭스로 전체 시스템의 기술성숙도를 하나의 숫자로 정량화 한다. SRL 또한 HW에 치우친 TRL을 기반으로 하기 때문에 HW, SW 및 IF 기술을 별도 구분하지 않는다. 시스템통합 관점에 따라 HW, SW 및 IF TRL이 구분되어 각각 TRA가 수행될 필요가 있다.
SRL은 시스템간 성숙도를 상대적으로 비교하기 수단으로 의의가 있다. 그러나 기술성숙도 평가는 근원적으로 미성숙 기술을 바탕으로 한 위험관리에 있기 때문에 시스템 수준의 성숙도는 HW, SW 및 IF CTE 중 가장 낮은 기술성숙도를 활용하는 것이 좀더 합리적일 수 있다.
현행 TRA은 Check List 방식을 채택하고 있어 평가자의 주관이 개입될 수 있고 HW, SW를 구분하여 평가하지 않는다. Check List 항목을 명확히 하고 세분화 하는 것도 도움이 될 수 있겠지만 각 지표의 Output 수준과 검증 환경(Environment) 등을 차별화하여 각 수준을 명확히 구분할 수 있다면 TRL 지표 만으로도 직관적인 평가가 가능할 것으로 판단한다.
제안하는 TRA 프레임워크는 그림3과 같다. 총 2단계로 CTE 선정단계와 TRL 평가단계로 구성된다.(현재의 사전 준비단계 활동은 연구대상에서 제외함)
먼저 CTE 선정단계를 보면 기초자료 분석 결과를 활용하여 후보 CTE를 식별하고 전문가로 구성된 평가팀이 회의를 통해 CTE를 확정한다. 상위 수준의 CTE 선정 절차는 기존과 크게 다르지 않다. 그러나 하위 세부활동에는 많은 차이가 있다. CTE는 TE 식별결과를 활용하여 주요 ROC(정량목표) 관련 기술 식별, 난이도 평가 및 COTS 기술의 적용여부를 활용하여 최종 선정한다.
그리고 시스템통합 관점에서 TE와 CTE는 HW, SW 및 IF 관점에서 각각 구분하여 식별한다.
CTE에 대한 TRA는 HW, SW 및 IF 관점에서 재정의된 TRL를 활용하여 분야별로 수행한다. 이후 TRA 보고서 작성 또한 HW, SW 및 IF CTE에 대한 평가 결과를 작성한다. 시스템 수준의 성숙도는 위험관리 관점에서 가장 낮은 기술성숙도로 정의한다. 미성숙기술에 대한 성숙계획은 현재와 같은 형태로 획득단계 주요 마일스톤의 기준에 미치지 못하는 CTE를 대상으로 작성한다. 기존 방식과 차이점은 그림4와 같다
CTE 선정 세부활동은 그림5와 같다.
먼저 기초자료 분석 결과를 활용하여 기술적 WBS(Work Breakdown Structure)를 작성한다.
기술적 WBS는 System-Subsystem–Component-HW/SW 구성항목으로 구조화 한다.
구조화된 HW/SW 구성항목별로 소요되는 HWTE와 SWTE를 식별하고 HWTE, SWTE 정의서를 작성한다.
운용개념 분석을 통해 Component의 HW/SW 구성항목간 인터페이스를 식별한다. 식별된 인터페이스 구현을 위해 소요되는 기술을 IFTE로 정의하고 IFTE 정의서를 작성한다.
식별된 HW/SW/IF TE를 대상으로 주요 ROC의 정량지표와 관련성을 분석하여 CTE 후보(1차)를 선정한다. 주요 ROC 정량지표는 반드시 만족해야 할 성능지표로 미달성시 일정, 비용에 가장 큰 영향을 주는 요소이기 때문이다. 주요 ROC 정량지표와 관련성을 찾는 방법은 SE 기반 연구개발시 HW, SW 구성항목에 요구사항을 할당하는 것과 유사하다.
HW/SW/IF TE 중 주요 ROC(정량지표)에 해당하지 않는 TE를 대상으로 기술적 난이도를 평가하고 난이도가 4수준 이상인 TE를 CTE 후보(1차)에 추가한다. 기술적 난이도 평가는 표18)과 같은 TDA(Technology Difficulty Assessment) 지표를 활용한다.
난이도 | 난이도 정의 |
---|---|
1 | 현재 존재하는 기술 |
2 | 현재 존재하는 기술이나 일부 수정이 필요한 기술 |
3 | 새로운 기술이나 기존기술을 활용하여 충분히 개발 가능한 기술 |
4 | 새로운 기술이면서 기존 기술이 존재하나 유사도가 낮아 새로운 개발이 필요한 기술 |
5 | 유사 기술이 없는 완전 새로운 기술 |
TDA 지표는 Bibro(2007)의 AD2 지표를 재정의 한 것이다. 새로운 기술과 경험하지 못한 기술일수록 난이도가 높다.
난이도가 높은 기술은 위험성이 높고 위험성이 높은 기술은 사업의 성능, 비용 및 일정에 중대한 영향을 미치기 때문이다.
마지막으로 CTE 후보(1차) 목록 중 상용기술로 확보 가능한 기술은 CTE에서 제외하여 최종 CTE를 선정한다.
상용기술을 적용할 경우 국내 획득정책에 부합할 뿐만아니라 검증된 기술로 사업에 미치는 위험도가 낮기 때문이다.
최종으로 선정된 CTE는 HWCTE, SWCTE 및 IFCTE로 구분된다.
최종 CTE를 대상으로 각각 재정의한 HWTRL, SWTRL 및 IFTRL 지표를 기준으로 그림6과 같이 TRL을 평가한다.
분야별 TRL은 기존의 선행연구와 가이드를 참조하여 재정의 하였다.
HWTRL은 하드웨어의 기술성숙도를 평가하는 지표이다. 현재의 9단계 TRL을 최대한 활용하여 그림79)과 같이 재정의 하였다. 방사청 TRA 업무지침(2019), NASA TRA BP Guide (2020), GAO TRA Guide(2020), DoD TRA Guide(2011)을 참조하였다.
1~3수준과 9수준은 기존과 동일하다. 4~5수준은 HW 충실도와 Ouput 수준으로 구분될 수 있도록 Breadboard(Low Fidelity), Brassboard(Medium Fidelity) 및 Prototype(High Fidelity)으로 HW 수준을 정의하였다.
6수준은 시제품 완성 수준, 7수준은 HW 제품이 부체계로 통합되어 검증된 수준, 8수준은 시스템 단위로 통합되어 실체계가 완성되고 시험평가가 완료된 수준으로 정의하였다.
SWTRL은 소프트웨어의 기술성숙도를 평가하기 위한 지표이다. Jeremy Straub TRL 10(2014)[15], DoD TRA Guide (2009)[16], CMU Draft SW TRL(2004)[17]를 참조하여 그림810)과 같이 재정의 하였다.
1, 8, 9수준은 SW 측면에서 수준을 재정의한 것으로 HWTRL 개념과 유사하다. 2수준은 기본 원리가 코딩된 수준, 3수준은 컴포넌트가 개발된 수준, 4수준은 컴포넌트간 통합이 이루어진 수준, 5수준에서 Prototype이 시연되고 6수준에서 베타버전이 완성되어 이후 버전관리가 수행된다. 7수준은 Test Bed에 통합되어 SW 기능이 유사운용환경에서 검증된다.
IFTRL은 인터페이스 기술성숙도를 평가하기 위한 지표이다. IFTRL은 Sauser(2009) IRL, GAO TRA Guide(2020)을 참조하여 그림911)와 같이 재정의 하였다.
1수준은 운용개념에 따라 IF 접점이 식별, 정의되는 수준, 2 수준은 IF 상호작용이 정의된 수준, 3수준은 IF 접점, 입출력 관계, 데이터를 포함하여 IF 다이어그램이 완성되는 수준이다. 4수준은 상세 설계 수준으로 데이터 소통 뿐만아니라 IF 검증 및 관리 구조가 확립된 수준, 5수준은 IF 기술 시연 수준, 6수준은 Prototype 시연 수준이다. 7~9수준은 부체계단위 통합 및 검증 수준, 시스템 단위 IF 개발 완료 수준, 임무 수행 수준 등으로 HWTRL과 유사한 개념이다. TRL 평가팀은 재정의된 HW/SW/IF TRL을 활용하여 최종 선정된 CTE를 대상으로 TRA를 수행하고 결과 보고서를 작성한다.
2.4 Case Study
가칭 TSS(Target Surveillance System) 체계를 대상으로 Case Study를 수행한다. 개선된 TRA 프레임워크를 활용하여 기술적 WBS 작성, CTE 도출 및 TRA 평가를 수행한다.
TSS는 EO/IR 영상을 활용하여 적 상황을 신속하게 파악하고 분석할 수 있는 기능을 지원하는 체계이다. TSS는 적 활동 상황 파악을 위해 설치된 EO, IR센서로부터 데이터를 근 실시간으로 수집하고 해당지역의 분석업무를 수행하는 담당관에게 신속하게 전송한다. 특히 수집된 EO 영상은 AI를 기반으로 표적을 자동 탐지하는 기능을 지원 한다. 수집된 EO, IR 영상을 디지털 지도에 전시하고 담당관이 분석할 수 있는 기능을 지원해야 한다. 주요 ROC 정량목표는 EO 영상 수집 및 갱신에 걸리는 시간으로 5초이다(가상 시나리오임).
TSS의 프로세스 다어그램은 그림10과 같다. 주요 ROC 정량목표와 관련된 프로세스는 EO센서로부터 표적을 탐지하고 데이터를 처리, 가공하여 담당관이 판독할 수 있도록 지도데이터에 표적을 전시하는 것으로 별도 구분하였다.
TSS의 기술적 WBS 작성 결과는 그림11과 같다.
TSS는 Sensor System, Data Processing System, Analysis System으로 구조화 된다. 각각의 Subsystem은 Component와 HW, SW 구성항목으로 세분화 된다.
TE 도출을 위해 기술적 WBS를 기준로 HW, SW 구성항목을 개발하는 데 소요되는 HWTE와 SWTE를 식별한다.
HWTE/SWTE는 EO디텍터 제작기술 등 총 15개가 식별되었다. EO Sensor(3개), IR Sensor(3개), Data Processing Equipment(3개), Data Target Detection Equipment(2개), Integrated Analysis Equipment(4개)가 식별되었다.
식별된 결과는 그림12와 같이 TE 정의서에 기술한다.
IFTE 식별을 위해 요구사항을 분석하고 TSS Component간 연관성을 분석하여 각 HW, SW 구성항목 간 인터페이스를 식별한다.
TSS의 IFTE는 총 19개가 식별 되었다.
식별된 IFTE는 인터페이스 구간별로 그림 14와 같이 IFTE 정의서를 작성하여 관리한다.
인터페이스 구간은 중복이 없어야 하며 인터페이스 기술은 HW-HW IF, HW-SW IF, SW-SW IF 유형에 맞게 식별하여 기술한다.
CTE 선정 대상은 기술적 WBS를 통해 식별된 HWTE, SWTE, IFTE가 된다.
개선된 TRA 프레임워크에 따라 첫째, 주요 ROC 정량목표와 관련된 TE를 식별한다. 주요 ROC 정량목표와 관련된 TE는 고해상도 EO 광학계 기술 등 HWTE(4개), SWTE(4개), IFTE(8개)가 식별되었다.
둘째, 주요 ROC 정량목표와 관련이 없는 TE 중에서 난이도 평가를 수행한다. 고해상도 IR 디텍터 제작기술 등 난이도 4 이상인 총 8개 기술요소를 식별하였다.
끝으로 고성능 CPU 기반 HW 제작 기술 등 상용기술로 획득 가능한 기술 총 11개를 CTE에서 제외하였다.
식별된 TE를 대상으로 CTE을 위해 필터링한 결과는 그림 15와 같이 정리된다.
최종 CTE는 고해상도 EO광학계 제작 기술 등 9개가 선정되었다.
TRA는 개선된 TRA 프레임워크에서 재정의한 HWTRL, SWTRL 및 IFTRL을 기준으로 수행하였다. 그 결과는 그림15와 같다. TSS의 시스템 수준의 TRL은 5이다.
3. 결 론
TRA는 현시점에서 CTE의 기술수준을 정량적으로 평가한 것이다. TRA 결과는 무기체계의 국내 연구개발 가능성 판단, 획득단계별 주요 마일스톤의 단계 전환 결정 및 위험관리 도구로 활용된다.
하지만 현 기술성숙도 평가에 사용되는 TRL은 HW 중심의 평가지표로 개별기술의 독립적 평가에 적합하나 시스템 수준의 평가에는 한계가 있다. 이러한 한계극복을 위해 IRL, SRL 등의 연구가 진행되었지만 제도에 정착되지는 않았다.
본 연구는 SE 기반 시스템통합 관점을 TRA 절차에 적용하여 현 TRA의 한계점을 극복할 수 있는 프레임워크를 개발한다. 기존 선행연구 결과물을 최대한 활용하되 방법론 차원의 개선에 초점을 두었다.
제안 프레임워크는 시스템통합 관점의 평가를 위해 TRA 대상을 HW, SW 및 IF 관점으로 바라본다. 따라서 TE와 CTE는 HW, SW 및 IF 측면으로 구분하여 식별한다. TRL도 3가지 측면에서 재정의하고 각 분야별 TRA를 수행할 수 있는 절차를 제공한다. 기존 Check List 기반 평가의 한계 극복을 위해 기준을 명확화, 단순화하고 절차를 보강하는데 노력하였다. 전체 시스템 수준의 성숙도는 위험관리를 고려하여 현재와 동일하게 가장 낮은 평가 결과를 활용한다.
CTE 선정은 현재의 Checklist 방식에서 벗어나 주요 ROC(정량지표) 관련성, 개발난이도 평가 결과 및 COTS 기술 적용여부를 고려하여 재정의된 기준과 절차에 따라 수행한다. 제안된 방법은 평가자 주관의 개입을 최소화 할 뿐만아니라 상용품 우선 정책에도 부합되는 장점이 있다.
TRL은 HW, SW 및 IF 측면에서 각각 재정의 하고 각 수준의 검증환경 및 Output(분야별 수준) 수준간 차이를 명확히 확인할 수 있도록 하였다.
TRL은 기술성숙도와 관련한 공통의 의사소통 도구로써 의미성을 가진다. 평가는 결국 전문가에 의해 수행됨으로 단순하면서 각 수준간 경계가 명확하다면 훨씬 쉽고 직관적인 평가가 가능하여 결과에 대한 이견 또한 최소화 되리라 판단한다.
본 연구를 시작으로 시스템통합 관점의 TRA 평가에 대한 기준, 절차에 대한 연구가 향후 활발히 진행되길 기대한다.