금융안정에 대한 AI의 잠재적 위협과 관리 방안의 모색 본문듣기
작성시간
관련링크
본문
<요약> ► AI는 다양한 금융 분야 혹은 업무에서 사람이나 기존의 수학적 · 통계학적 기법의 한계를 넘어 새로운 방식의 사고와 업무처리 방식의 혁신을 바탕으로 양적 · 질적으로 긍정적 변화를 가져올 것으로 기대되고 있음. ► 동시에 금융에서의 AI 확산이 가져올 수 있는 위험성에 대해서도 그간 많은 논의가 이루어져 왔지만, 기본적으로 개발자, 사용자로서의 개인과 기관, 또는 알고리즘 수준의 문제와 그 해결 방안에 초점이 맞춰짐. ► 그러나 최근 AI가 미시적 문제들을 넘어 금융시스템의 안정성에 위협을 가할 수 있다는 사실이 부각되었고, 문제를 유발할 수 있는 경로로 획일성, 네트워크 상호연결성, 규제공백 등의 문제들이 지적되었음. ► 금융에서의 AI 확산은 특정 AI 알고리즘이나 이를 사용하는 시장참여자의 악의적 의도나 행위의 합리성과 무관하게 시스템 위험을 유발할 수 있어, AI 문제에 대한 기존 접근방식으로는 해결이 어려울 것임. ► 결국, AI 확산에 따른 시스템 위험을 방지하기 위해서는 금융시스템 전체를 조망하여 관련 위험을 모니터링하고 선제적 대응을 수행하기 위한 기구를 신설하거나 해당 업무를 담당할 기관을 지정함과 동시에 궁극적 해결방안을 모색하기 위한 금융당국과 학계 및 업계, 그리고 기타 금융관련 비금융회사 공동의 노력이 필요할 것으로 판단 |
ChatGPT 등장으로 촉발된 생성형(generative) 인공지능(Artificial Intelligence; 이하 AI) 열풍은 AI가 가져올 무한한 가능성에 대해 부푼 기대를 자아내고 있다. 금융도 AI의 활용이 빠르게 늘어나고 있는 분야이다. 특히 심층학습(deep learning) 기법을 통해 AI의 예측력이 획기적으로 고도화되면서 AI가 효율성 제고, 금융포용 확대, 소비자 만족도 개선, 수익률 증가, 위험관리 강화 등 다양한 가능성을 보여줄 것으로 기대되고 있다. 물론 그동안 금융에서의 AI 확산이 유발할 수 있는 문제점에 대해서도 많은 논의가 이루어진 바 있다. 주로 개별 AI, 금융회사 및 여타 시장참여자 간에 발생할 수 있는 문제들로서 각국은 시장 자율적인 AI 윤리의 도입이나 개별 AI 알고리즘에 대한 금융당국의 사전적 검증 등을 통한 해결방안을 모색하고 있다.
그러나 최근에는 AI의 확산이 자칫 전체 금융시스템의 안정성을 저해할 가능성이 있는가에 대한 우려가 제기되고 있다. AI와는 무관하지만, 디지털 군집현상(digital herding)을 미처 예상하지 못한 상황에서 일어난 실리콘밸리은행의 갑작스러운 파산 과정은 기술의 혁신이 금융에 우리의 예상보다 훨씬 큰 변화를 가져올 수도 있겠다는 교훈을 안겨준 바 있다. 본고는 금융에서의 AI 확산이 야기할 수 있는 부작용, 특히 전체 시스템 관점에서의 위험은 무엇이고, 어떤 대비책을 마련해야 할지에 대해 살펴보고자 한다.
금융 AI 확산의 기대효과와 미시적 위험
금융에서의 AI 확산에 따라 기대할 수 있는 혜택에 대해서는 이미 수많은 자료가 범람하고 있기에 또다시 많은 분량을 할애할 필요는 없어 보인다. AI는 다양한 금융 분야 혹은 업무에서 사람이나 기존의 수학적·통계학적 기법의 한계를 넘어 새로운 방식의 사고와 업무처리 방식의 혁신을 바탕으로 양적·질적의 긍정적 변화를 가져올 것으로 기대되고 있다. 국가별로 차이는 있겠지만 AI는 이미 금융사기 포착, 규제순응, 시장감시 등 다양한 분야에서 폭넓게 사용되고 있고, 투자, 자산관리, 위험관리, 대출심사나 보험인수 등 금융의 본원적 영역으로 활동영역을 넓혀가고 있다. 또한 자연어처리 프로세스로 무장한 AI는 상담이나 판매, 민원처리 등 고객과의 접점에서도 존재감을 과시하기 시작했다.
물론 AI도 만능은 아니어서 그 사용에 있어 AI의 근본 특성에 기인하는 필연적 위험부담에 직면하게된다.
첫째, 제한적 설명가능성(limited explainability) 혹은 투명성 부족 문제이다. 개발자가 초기 코드들을 설계하면 자체적으로 심층학습 과정이 진행되어 외부에서 AI의 학습과정이나 의사결정 과정을모두 파악하기 어려운 상황에 직면하게 된다는 점은 규제당국은 물론 사용자들에게도 다양한 문제를 유발할 수 있다. 투명성 문제를 해결하기 위해 설명가능 AI(explainable artificial intelligence; XAI)를 구현하고자 다양한 시도가 이루어지고 있으나 아직까지는 기대에 충분히 부응하지 못하고 있다.
둘째, 편의(bias)의 존재 혹은 공정성 부족의 문제이다. 공정성이 사회적으로 매우 중요한 덕목임에도 불구하고, AI 시스템에서 공정성을 보장하는 문제는 결코 쉽지 않은 작업이다. 데이터에 내재된 편의, 처리과정에서 발생할 수 있는 차별, 제한적 설명가능성으로 인해 편의의 문제가 드러나지 않을 가능성 등에 대한 우려의 목소리가 높다.
셋째, 강건성(robustness) 부족의 문제이다. 데이터에 숨겨진 특질들을 끄집어낼 수 있는 신경망 네트워크의 능력은 AI가 가진 엄청난 예측력의 원천인 동시에 잠재적 약점이기도 하다. 설계자가 이러한 특질과 예측 결과 간의 관계를 이해하기 어렵고, 작은 변화로도 크게 다른 결과가 도출된다든지, 엄밀한 검증을 통해 잘못된 예측으로 판명되기도 한다. 또한 의도적으로 데이터에 특정한 변화를 유발하여 혼란을 야기하고 시스템을 공략하는 사이버 공격의 방편으로 이용될 수도 있다.
금융안정성에 대한 AI의 위협
전술한 AI의 위험은 AI의 과용, 오용, 오작동이 특정 집단의 개인들, 예를 들어 고객이나 사용자 등에게 미치는 직접적인 악영향에 대한 것들이다. 그러나 최근 논의는 금융에서의 AI 확산이 금융시스템의 안정성에 미칠 수 있는 위험에 대한 것으로 확대되고 있다. 특히 기술의 오용이나 알고리즘의 오작동,혹은 누군가의 명백한 혹은 의도된 잘못이 없이도 AI의 확산을 통해 금융시스템에 위기를 촉발할 수 있는 압력이 누적되어 갈 가능성에 주목한다. 시스템 위험은 한 개인, 기업, 나아가 시장의 한 부문에서 발생한 사건이나 부도, 혹은 의도되지 않은 집단적 행위들의 여파가 빠르게 전파되면서 광범위한 금융시스템 혹은 경제 전반에 악영향을 미치는 상황을 지칭한다.
관련 연구들이 지목하고 있는 AI 확산에 따른 시스템 위험 유발요인은 크게 획일성(uniformity), 네트워크 상호연결성(network interconnectedness), 그리고 규제공백(regulatory gaps)의 세 가지로 정리할 수 있는데, 그중에서도 획일성이 가장 큰 주목을 받고 있다.1)
획일성이란 다수의 AI가, 혹은 AI의 도움을 받은 다수의 시장참여자들이 유사한 결정을 내리게 됨에 따라 시장에서 획일적인 결과가 발생하게 되는 상황을 지칭한다. 해당 결정 자체는 합리적일 수도 있고, 그렇지 않을 수도 있지만, 이로 인한 획일적인 행위가 시장을 지배하게 되면 경기순응성(pro-cyclicality) 위험 또는 자기강화형(self-reꠓinforcing) 시장 급등락2)이 초래되고 결국 시스템 위험으로 이어질 수 있다.
금융에서의 AI 확산이 획일성을 유발하는 통로는 매우 다양하다.
첫째, 데이터에 기인한 획일성을 들수 있다. AI는 엄청난 데이터 수요로 인해 데이터 제공 기관에 대한 의존도가 높을 수밖에 없다. 그런데 데이터를 취급함에 있어 규모의 경제, 범위의 경제 및 네트워크 효과가 존재하기 때문에 데이터를 취합 · 관리 · 공급하는 시장의 집중도는 자연적으로 높아지는 경향을 보인다. 심지어 중국이나 EU와 같이 국가가 직접 나서서 데이터 집중화를 선도하는 경우도 있다. 소수의 데이터 취합 · 관리 기관에 대한 의존도가 높아지고, 그 결과로 다양한 AI들이 사용하는 데이터가 수렴하게 되면, 모형들이 내놓는 예측 간에 높은 상관관계가 나타나고 군집행동으로 이어질 수 있다. 이러한 가능성은 시장지배적 데이터 제공업체가 단순히 원자료를 제공하는 것을 넘어, 자료를 가공하고, 요약하거나, 심지어 분석과 해석까지를 겸하게 될수록 더 높아지게 될 것이다.
둘째, 소수의 AI 모형이 시장에서 지배적 위치를 차지하게 됨에 따라 획일성이 증가할 수 있다. 금융회사들은 AI 모형을 내부에서 직접 개발하기도 하지만, AI 서비스 혹은 구독형 AI(AI-as-a-Service)의 형태로 외부 업체가 제공하는 모형을 이용하기도 한다. 그러나 심층학습과 같은 AI 모형의 교육과 운영에는 막대한 자원이 필요하고 이로 인해 확실한 규모의 경제가 존재한다. 따라서 대다수 금융회사,심지어 일부 대형 금융회사들도 AI의 개발은 물론 실제 운영과 결과의 해석까지도 외부의 제3자가 제공하는 서비스를 통해 조달하게 될 가능성이 높고, 이러한 추세는 앞으로 더욱 강화될 것이다. 시장은 궁극적으로 소수의 시장지배력을 가진 AI 기업을 중심으로 재편될 가능성이 높고, 그 결과 시장에 제공되는 상당수의 서비스가 이들 과점적 AI 제품을 기반으로 하게 될 것이다. 시장참여자들이 유사한 서비스를 사용하다 보면 금융시스템 전체로 볼 때 대동소이한 업무 · 투자 방식이 횡행하게 된다. 외부서비스의 구독을 담당하는 부서에는 경쟁업체가 사용하는 AI 서비스를 구독하는 편이 안전하다는 일종의 보신 문화가 형성될 수도 있다. 소수의 AI가 시장을 지배하게 되면 군집현상(hearding)이 발생하기 쉬운 환경이 조성된다
셋째, 상이한 AI 모형들 간에도 획일성이 나타날 수 있다. 초기에는 상이한 데이터를 사용하는 다양한 모형이 존재하지만 시간이 경과함에 따라 모형 간에 수렴 현상이 발생할 가능성이 있다는 것이다.
기본적으로 한정된 개발인력, 이들 간의 자연스러운 학술적 교류나 이직 등이 AI 모형 간의 태생적 유사성을 가져올 수 있다. 또한 투명성, 공정성, 모형의 강건성 등의 확보 차원에서 부여되는 규제로 인해 AI 모형들 간에 획일성이 유발될 수도 있다. 심지어 특정 시장에서 동일한 목적을 위해 움직이는 AI 기반 투자전략들이 사전적 획일화 요인 없이도 유사한 투자행태를 보일 가능성이 존재한다. 금융시장에는 매수 및 매도 가격과 물량 등 수많은 신호들이 존재하고 AI 모형은 경쟁 상대방인 다른 AI 모형의 행동이 보내는 신호들을 인지하고 이를 뛰어넘는 행동을 하도록 프로그램되기도 한다. 서로가 보내는 신호에 반응하거나 심지어 소통하기도 하면서 상호 영향을 주고받는 과정에서 일종의 담합적 행태 혹은 담합의 결과와 유사한 군집적 행태를 보일 수 있다는 것이다. 알고리즘들이 서로 호응하여 조화롭게 움직이는 것을 협응 현상(algorithmic coordination)이라고 지칭한다. 실제로 시뮬레이션을 통해 딥러닝 기반 AI 모형들이 담합이나 불공정거래 행태를 자발적으로 수행할 수 있다는 사실이 확인되기도 하였다.3)
두 번째 요인인 네트워크 상호연결성은 전술한 획일성과 불가분의 관계를 가진다. 우선 AI 간, AI와데이터 제공업체 간, AI를 사용하는 기업 간에 복잡한 네트워크가 형성되고 이를 통해 상호연결되어 있는 상황은 획일성을 발생시키는 인자로서 작용하는 동시에 획일성이 촉발한 위험이 시스템 전반에 빠르게 전파될 수 있는 환경으로도 작용한다. 시장지배력을 가진 데이터 제공업체나 AI 서비스 업체는 네트워크 상에서 단일 장애점(single point of failure)의 지위를 차지하게 되어 시스템의 안정성을 위협할 수 있는 요인으로 대두된다.4)
끝으로 규제공백은 AI 확산으로 금융이 빠르게 변화되어 가는 속도를 감독체계의 적응 속도가 미처 따라가지 못함에 따라 현실과 규제 · 감독체계 간에 간극(gap)이 발생하는 상황을 지칭한다. 규제공백으로 인해 당국은 시스템 위험 요인들이 임계치까지 누적되는 상황을 간파하지 못할 가능성이 있다. 향후 금융회사의 보다 핵심적인 업무 프로세스에서 AI 활용이 증가할수록, 감독당국이 금융회사의 건전성이나 유동성 문제들 혹은 위기의 전조를 파악하기가 어려워지게 될 것이다.
그간의 대응 노력
AI의 확산에 따른 위험을 통제하기 위해 다양한 시도가 이루어졌고, 또 이루어지고 있다. AI에 대한 규율은 가장 약하게는 비영리기구나 각종 협회, 혹은 기업들이 설정하는 시장 자율적 민간 윤리 가이드라인(혹은 지침, 원칙)부터, 정부 부처나 그 산하 기관이 제정하는 공적인 성격의 윤리 가이드라인,그리고 가장 강한 법적 규제 등으로 나누어 볼 수 있다. 대표적인 민간 윤리 가이드라인으로는 2017년 스티븐 호킹과 일론 머스크 등이 자문으로 참여한 비영리 AI 연구기관 퓨처오브라이프(Future of Life)에서 발표한 아실로마 AI 원칙(Asilomar AI Principles)을 들 수 있다. 공적인 성격의 윤리 가이드라인의 예로는 EU 집행위원회(EC)가 2019년 발표한 신뢰할 수 있는 AI 윤리 가이드라인이나 일본 정부의 AI 개발 가이드라인(2017), 인간 중심의 AI 사회 원칙(2019), 혹은 금융분야에 특화된 경우로 싱가포르 통화청(Monetary Authority of Singapore)의 FEAT 원칙(Principles to Promote Fairness, Ethics, Accountability and Transparency in the Use of Artificial Intelligence and Data Analytics in Singapore’s Financial Sector) 등을 들 수 있다. 그리고 법적 규제로는 EU의 AI 규제법(Artificial Intelligence Act)(안)을 대표적 사례로 꼽을 수 있다. 2023년 8월 14일 EU 의회 본회의가 AI 규제법 협상안을 가결했고, 의회와 집행위원회(EC), 그리고 이사회 간의 3자 협상이 시작되었다. 협상이 마무리되면 본회의에서 법안을 가결하고 공표되는 절차만을 남겨두게 된다. 이 모든 절차가 완료되면 해당 법안은 EU 회원국들에게 공통적으로 적용된다.
우리나라의 경우, 부처나 산업별로 다양한 노력이 진행되어 온 바 있으며, 금융 분야의 경우에는 금융위원회가 2016년 코스콤 산하에 로보어드바이저 테스트베드를 도입하였고, 2021년 7월에는 금융분야 AI 가이드라인을 발표하였다. 해당 가이드라인은 금융분야의 AI 윤리를 직접 제시한 것은 아니고, 금융회사 및 일부 금융관련 비금융회사들로 하여금 각자에게 적합한 AI 윤리원칙을 마련하는 것을 포함하여 AI 서비스에 대한 신뢰제고를 위한 최소한의 준칙을 제시하고 있다. 또한 2022년 8월에는 금융분야 AI 개발 · 활용 안내서를 발간하였고, 2023년 4월에는 AI 기반 신용평가모형 검증체계와 금융분야 AI 보안 가이드라인을 발표한 바 있다.
EU에서 입법 과정이 진행 중이긴 하지만, 아직까지 AI의 위험성에 대한 대응의 주류는 AI 윤리로 대표되는 시장자율적, 혹은 공적 가이드라인 성격의 규율이라고 할 수 있다. 이러한 접근법은 기본적으로 AI 기술, 그리고 개별 알고리즘 및 사용자들의 활동과 관련된 윤리적 원칙을 세우거나 일부 정부 개입을 통해 자발적 움직임을 유도하는 데 초점을 맞추어왔다. 결국 기존의 대응은 개발자, 사용자로서의 개인과 기관, 또는 알고리즘 수준의 문제에 천착해왔음을 의미한다.
금융안정성 확보를 위한 다양한 구상들
학계에서는 이에서 한 걸음 더 나아가 AI 확산에 따른 금융안정성 저해와 관련해서도 다양한 대응방안을 모색하고 있다. 무엇보다 금융회사 내부, 그리고 금융시스템 전체를 아우르는 네트워크의 현황을 파악하는 작업이 필요하다는 데 의견이 모아지고 있다. 금융회사가 사용하고 있는 모든 내부 데이터와 소프트웨어 간의 관계도, 나아가 금융회사가 사용하고 있는 모든 외부 데이터와 소프트웨어 간의 관계도를 작성하고, 이를 모두 취합하여 시스템 전체 관점에서 시스템 의존도와 상호연계성 등에 대한 일종의 조감도를 구성해야 한다. 이를 통해 특정 부문에 대한 과도한 의존도의 확인, 전체 시스템을 대상으로 하는 스트레스 테스트의 수행 등이 가능해질 것이다.
AI 윤리학쪽에서도 Svetlova(2022)가 이와 유사한 주장을 펼친다. 개별 시장참여자나 AI 개발자 차원의 윤리만으로는 시스템 위험 문제를 예방할 수 없다는 인식에 기반하여 금융에서의 AI 윤리 문제를 전담하는 기관을 설립하거나, 해당 업무를 업권별 협회 등에 위탁할 것을 제안한다. 해당 기관은 ①시스템 위험과 관련한 시장의 다양한 관계를 확인하고 윤리적 관점에서 이러한 관계를 평가하며, ② 도덕적 의무(moral obligations to know)로서 시스템 관점에서 파악하고 있어야만 하는 것이 무엇인지를 결정하기 위한 정보와 지식을 수집하고 이를 가공 · 분석 및 해석하는 인텔리전스 허브(intelligence hub) 역할을 수행하는 동시에 ③다양한 이해관계자들에 대한 자문기구로서의 기능을 담당하게 된다.
금융학계와 AI 윤리학계 공히 금융시스템 전반에 걸쳐 획일적인 의사결정 행태가 형성되고 있는지를 평가하기 위해 시스템 전반에 대한 평가(horizontal review)가 필요하다고 입을 모은다. 모형의 사용, 모형 예측에 기반한 의사결정, 그에 따른 금융회사들의 실제 행동 등에 대해 복수의 금융회사, 나아가 전체 금융회사와 금융 관련 비금융회사 전반에 걸친 평가를 수행함으로써 시장참여자들 간에 군집행동이 나타나고 있는지, 네트워크 상호연결성이 강화되고 있는지, 회사 외부로부터 제공받고 있는 서비스에 대한 의존도가 강화되고 있는지 등의 문제들을 사전에 진단할 수 있다.
또한 기존에 완충자본이 도입된 것과 유사한 논리로 AI 확산에 따라 발생할 수 있는 위협에 대비하여 개별 금융회사에 손실흡수 완충 자본을 차등 부과하는 방안도 제시되고 있다. 예를 들어 단순 행정업무에 AI를 사용하는 것과 투자나 신용대출, 보험인수 등에 AI를 사용하는 것과는 수반되는 위험의 크기에 차이가 있을 수 있으므로, AI 사용 분야에 따라 손실흡수 완충 자본에 차등을 두는 방안도 검토해볼 수 있을 것이다. 또한 심층학습 기반의 AI 모형을 도입하더라도 기존에 사용되던 선형 모형들을 폐기하지 말고 일종의 백업모형으로 지속 운영할 의무를 부여할 필요가 있다.
무엇보다 현재의 규제와 감독의 규정, 대상, 방법 등을 금융에서의 AI 확산에 부응하여 업데이트하기 위한 노력을 경주해야 한다. 동시에 감독당국의 업데이트 노력이 지속적으로 이루어지더라도 AI의 발전과 확산 속도를 따라가기 쉽지 않을 가능성을 인정하고 그 격차를 메울 방안에 대해서도 고민해야 한다. 동시에 당국이 부과하는 AI 관련 규제가 기술 중립적이라고 하더라도 부지불식중에 획일성을 확산시킬 수 있다는 가능성을 인식하고, 금융회사나 금융관련 비금융회사들에게 하나가 아닌 복수의 규제순응 방식을 제안하는 방안에 대해서도 검토할 수 있을 것이다.
맺음말
2023년 5월에 열린 미국 상원 청문회에서 OpenAI의 CEO인 Sam Altman는 AI에 대한 희망적 견해를 이야기하면서도 AI의 잠재적 위험을 완화하기 위해서는 대규모 AI 모형의 인허가, 테스트, 안전표준 등을 담당할 정부기구의 설립과 국가간 AI 규제를 조율할 국제기구의 도입이 필요함을 역설했다. AI 확산이 금융안정성을 위협할 것인지, 위협한다면 그 경로는 어떻게 될 것인지 등에 대한 문제는 도널드 럼스펠드의 구분을 따르자면 ‘알려지지 않은 불확실한 일(unknown unknowns)’에 해당한다.5)
여전히 우리는 해당 문제의 실체를 정확히 파악하고 있지 못하며, 문제가 실제로 벌어질 가능성에 대해서도 섣불리 짐작하기 어려운 상황에 처해 있다. 그럼에도 불구하고 만에 하나 이러한 상황이 발생할 경우,감내해야 하는 사회적 고통의 수준이 너무나도 크기 때문에 이러한 위험성에 대해 이해하고자 노력하고, 막아낼 방법이 무엇인지 고민해야 하는 것이다. 학계, 관계, 금융회사와 외부의 서비스 제공 비금융회사들까지 모두 함께 머리를 맞대고 향후 자칫 발생할 수도 있는 모든 위험의 성격과 강도에 대해 고민하고 방지 및 완화 대책을 마련해 놓는 것이 AI의 보다 빠른 확산과 안정적 사용을 위한 시장 신뢰의 형성에 도움이 될 것으로 판단된다.<KIF>
---------------------------------------------------------
1) AI의 확산과 금융안정성을 연결 짓고 있는 연구들로는 Carney(2017), FSB(2017), Wall(2018), Lin(2019), WEF(2019), Buckley et al.(2019),Danielsson et al.(2020), Genberg(2020), Svetlova(2022), Gensler & Bailey(2022) 등을 들 수 있다. 특히 현재 미국 증권거래위원회(SEC)위원장을 맡고 있는 겐슬러(Gary Gensler)가 MIT 경영전문대학원 교수 시절인 2020년, 당시 MIT의 전기공학 및 컴퓨터과학부 연구조교였던 베일리(Lily Bailey)와 공저한 논문, “Deep Learning and Financial Stability”는 딥러닝이 금융안정을 위협할 수 있는 리스크들과 대응방안에 대해 종합적인 견해를 제시하고 있다는 점에서 특히 주목할 만하다.
2) 침체된 시장에 직면한 다수의 AI가 주어진 목표, 즉 이익을 극대화하기 위해 취하는 합리적인 그러나 획일적인 행동들이 시장상황을 더욱 빠르게 침체시키는 악순환이 발생할 수 있다. 마찬가지로 과열된 시장에서도 반대 방향의 악순환이 발생할 수 있다.
3) WEF(2019)에서 이러한 가능성이 언급된 바 있고, Calvano et al.(2019), Klein(2021) 등에서 관련 시뮬레이션의 결과를 확인할 수 있다.
4) 단일 장애점이란 시스템 혹은 네트워크 구성 요소 중, 해당 요소가 제대로 작동하지 못할 경우 전체 시스템이나 네트워크가 작동을 멈추게 되는 요소를 지칭한다
5) 나머지 세 가지는 알려진 확실한 일(known knowns), 알려진 불확실한 일(known unknowns), 알려지지 않은 확실한 일(unknown knowns)이다.
<ifsPOST>
※이 글은 한국금융연구원(KIF)이 발간하는 [금융브리프 32권 18호] (2023.9.23.) '논단'에 실린 것으로 연구원의 동의를 얻어 게재합니다. <편집자> |
댓글목록
등록된 댓글이 없습니다.