몬스
몬스 · 네트워크 과학을 공부/연구합니다.
2022/11/25
핵무장 대논쟁

라이뷰

핵무장 대논쟁

핵무장과 국제정치에 대한 토론을 아주 즐겁게 섭취중인 얼룩커입니다. 안보와 통상이라는 두 축(+α)상에서 의사를 결정해야 하는 정치라는 것이 얼마나 복잡하고, 많은 논의들이 필요한 지 알 수 있던 토론이었습니다.

특히 흥미로웠던 건, 재경님이 제시해주신 의사결정나무(Decision Tree)였습니다. 각 분기점마다 타당해 보이는 사건 내지는 논리들이 있었고, Yes/NO를 따라가다보면 우리가 어떤 선택을 해야 할지 이해하기 쉬웠습니다.

의사결정나무에 흥미를 느낀 이유는 제가 몸담고 있는 정보과학에서도 자주 사용되는 기법이기 때문입니다. 특히 최근 더 큰 관심을 받고 있는 머신러닝 분야에서 의사결정나무는 꽤 고전적이면서도 높은 설명가능성을 지녀 아직까지도 큰 활약을 하고 있죠.

성능(예측력)과 설명가능성의 상충관계 [출처: MathWorks-https://www.mathworks.com/discovery/interpretability.html]


위 그래프는 자주 사용되는 머신러닝 기법의 설명가능성(Explainability)와 성능(Predictive power)의 상충관계(Trade-off)를 보여줍니다. 여기서 설명가능성이란 모델이 왜 그런 예측을 하는지 인간이 해석할 수 있는 정도를 나타내며, 성능이란 모델의 예측력이 높은, 즉, 모델이 현상을 더 잘 담아낸 정도를 나타냅니다. 성능이 높을 수록 모델은 더 실제에 가까운 예측을 한다는 것이죠.

설명가능성과 성능이 상충관계인 이유는 현재의 모델들이 대개 설명가능성이 높으면 성능이 낮고, 성능이 높으면 설명가능성이 낮기 때문입니다. 설명가능성이 낮은데 성능도 낮은 모델은 모델의 의미가 없고, 설명가능성이 높으면서 성능이 높은 모델에 관한 연구는 현재진행형이기 때문입니다(설명가능한 인공지능, Explainable AI; XAI). 그래서 설명가능성과 성능 기준으로 각각 쓸만한 모델들만 남게 되었고, 이들이 Trade-off 속에서 목적에 맞게 사용되고 있는 것이죠. 

상충...
얼룩패스
지금 가입하고
얼룩소의 모든 글을 만나보세요.
이미 회원이신가요? 로그인
복잡계 과학에 관심이 많고, 그 중 주로 네트워크 과학을 공부/연구/덕질 하고 있습니다.
659
팔로워 1.2K
팔로잉 603