AI가 부추기는 자신감 과잉, 리더에게 더 위험한 이유

AI가 도구를 넘어 동료가 되어 함께 일하는 듯한 요즘, 지금껏 생각만 하던 일들을 시도하는 허들이 낮아졌고 AI의 요약 및 분석을 통해 생각의 힘이 갑자기 커진 것처럼 느껴지곤 하지요. ‘딸깍’하면 작성되는 초안도 그럴듯 해보이고, 한 가지 아이디어를 여러 버전으로 펼쳐내는 것은 일도 아닌 것처럼 느껴지면서 일이 꽤 쉬워진 듯한 착각과도 같은 자신감이 생기기도 합니다.
129번째 레터로 전한 인터뷰에서 이중학 동국대 경영학과 교수는 “구성원 개인이 (AI와 협업으로 늘어난) 성과의 증가분에 대한 기여도를 실제보다 크게 보는 자신감 과잉(overconfidence)의 문제가 불거지기도 한다”고 AI 시대에 새롭게 떠오른 성과관리 과제를 짚었습니다. 과유불급이라고는 하지만 자신감이 강하면 도전적이 되니, 나쁠 게 없는 것 아닐까요? 왜 ‘문제’가 되는 것일까요? 이번 Lemonbase Camp Biweekly(LbC Biweekly)에서는 AI가 ‘자신감 과잉’을 유발하는 이유와 이것이 위험한 이유, 이를 벗어나는 방법 등에 대해서 함께 살펴보겠습니다.

AI가 ‘자신감 과잉’을 유발한다고?
AI 활용에 있어서는 더닝 크루거 효과(DKE)가 통하지 않는다는 연구 결과가 있습니다.(링크) ‘더닝 크루거 효과’는 능력이 없는 사람은 자신의 실력을 실제보다 높게 평가하는 반면, 능력이 있는 사람은 오히려 자신의 실력을 과소평가한다는 이론입니다.(링크) 능력이 없는 사람은 스스로의 오류를 알아차릴 능력이 없어서 자신의 능력 부족으로 발생한 결과를 알지 못하고, 타인의 능력도 알아보지 못하는 것이지요.
그런데 AI를 활용할 때는 능력이 없는 사람뿐 아니라, 능력이 있는 사람 즉 AI 전문가조차도 자신의 기술 활용 능력을 과대평가하는 경향이 실험에서 나타났습니다. 핀란드 알토대의 로빈 웰시 교수는 AI 능력과 자신감 사이의 관계를 밝히기 위해 다음과 같은 실험을 진행했습니다.(링크) 500명의 실험 참가자 중 절반은 챗GPT를 사용하고, 나머지 절반은 사용하지 않은 채 미국 로스쿨입학자격시험(LSAT)의 논리추론 문제 20개를 풀도록 했습니다. 그리고 자신의 성과를 평가하고, AI 활용 능력도 측정했어요. 이때 AI에 대한 지식과 경험이 풍부한 참가자들이 자신의 능력을 과대평가하는 경향이 나타난 것입니다. AI에 질문을 하나만 던지고 정답을 얻었다고 생각하는 등 AI에 대한 맹목적인 신뢰가 드러나기도 했습니다.
다른 연구 결과에서도 사용자가 AI의 답변에 대해 신중하고 비판적인 태도를 보일 가능성이 낮은 것으로 나타났습니다. 시장동향분석업체 Exploding Topics에 따르면, 92%의 사람들이 AI 답변이 정확한 지를 확인하지 않는다고 합니다.(링크) 여전히 AI가 잘못된 정보를 전달하거나 터무니 없는 오류를 일으킴에도 불구하고 말이지요. 대규모언어모델(LLM)의 ‘유창성(fluency)’이 답변에 대한 의심을 거두게 합니다.(링크) 최근 인터뷰에서 김애란 작가가 사람과 AI의 차이를 ‘망설임’이라고 표현해 크게 공감이 되었는데요. AI는 망설임이 없습니다. 불확실성과 모호함을 좀처럼 남겨두지 않지요. 모르는 것을 모른다고 답하는 대신, 확신에 찬 AI의 답변은 문제가 있는 결정과 부정적인 결과를 초래할 수 있는 행동을 부추길 수 있습니다.
또, AI가 사용자의 오해나 오류를 지적하거나 반박하지 않는 ‘사회적 아첨(social sycophancy)’의 경향(링크)을 보이면서 사용자는 스스로 똑똑하다고 느끼게 되거나 자신의 생각이 옳다는 확신을 더합니다. AI는 사용자가 감정적 확신을 보일 때 이에 대해 중립적인 입장을 취하지 않습니다. AI 모델은 일반적으로 잘못됐거나 비도덕적이라고 여겨지는 사용자의 결정조차 타인에 비해 50% 더 긍정적으로 평가했습니다.(링크) 갈등 상황에서 상호 이해를 이끌어내는 것이 아니라 전적으로 자신의 편에 서는 AI의 답변에 대해 사용자가 더 높은 품질로 평가하면서 이러한 경향이 강화되기도 하고요.
이러한 AI의 특성은 평가에서도 예기치 못한 문제를 일으킬 수 있습니다. 유창한 문장이나 사회적 아첨에 속지 않도록 경계해야 하는 이유입니다. AI에 몇개의 키워드를 입력해 얻은 유려한 문장의 피드백 초안에 정작 구체적인 사실이 실려 있지 않아, 알맹이 없는 일반적인 칭찬에 그칠 위험이 있습니다. 리더는 기준치와 근거 데이터를 기반으로 초안을 집요하게 검토해야 합니다.
셀프 리뷰를 작성할 때도 마찬가지입니다. AI의 ‘아첨’에 취해 환경적 요인이나 주변의 도움을 배제한 채, 오로지 자신의 능력만으로 성과를 이룬 것으로 착각하고 있지는 않은지 비판적으로 돌아봐야 합니다. AI라는 거울에 비친 ‘과장된 나’를 걷어낼 때 비로소 모두가 납득할 있는 수용성 높은 평가가 가능해집니다.
자신감 과잉이 위험한 이유
어떤 일이든 해낼 수 있다는 자신감은 흔히 일을 밀어붙이고 한계를 뛰어넘을 정도의 노력을 기울이게 하는 ‘추진력’의 밑거름이 될 수 있다는 측면에서 긍정적으로 받아들여집니다. 허나 이러한 노력이 꼭 좋은 결과를 의미하지는 않지요. 게다가 자신감의 ‘과잉’에는 여러 위험이 내포되어 있습니다. 자신의 능력으로 충분히 해낼 수 있다고 잘못 판단한 일에서 실패하거나(역량에 대한 오판), 감당할 수 없는 일을 벌이는 것(상황에 대한 오판)이 과신의 흔한 결과입니다.(링크) 가장 흔한 실수는 계획에서부터 나타나곤 합니다. 회사의 프로젝트가 예정보다 일찍, 혹은 예산보다 적은 비용으로 완료된 적이 없었다는 사실을 경험적으로 알고 있음에도 불구하고, 앞으로는 지금까지와 다를 것이라는 근거 없는 낙관에 기대어 비현실적인 계획을 수립하는 것,(링크) 다들 직간접적으로 경험하셨을테죠.
특히 직급이 높아질수록, 또 성공 경험이 쌓일수록 자신이 옳다고 생각하는 경향(곧, 자신이 틀렸다고 생각하지 않는 경향)이 커질 수 있고, 이는 개인에게만 그치지 않고 조직에 미치는 영향이 크다는 점에서 더욱 경계가 필요합니다.(링크) 자신감 과잉은 (1) 자신의 능력이 실제보다 더 뛰어나다는 착각(overestimation) (2) 자신이 다른 사람보다 낫다는 과장된 믿음(overplacement) (3) 자신이 진실을 안다는 지나친 확신(overprecision) 등 세가지 측면으로 나타난다고 분석됩니다. 이 세 가지 함정에 빠지면 내가 틀렸을 가능성을 배제하게 됩니다. 실제로 지나치게 자신감 넘치는 CEO가 핵심 사업과 부합하지 않는 인수 대상을 선택하는 등 더 위험한 결정을 내린다는 연구 결과가 있습니다.(링크) 인수합병의 위험은 과소평가하고, 이를 통해 얻을 수 있는 시너지 효과는 과대평가하는 경향이 있기 때문이지요.
다른 누구의 말도 들으려 하지 않는 폐쇄적인 태도도 능력 부족보다 자신감 과잉이 더 나쁜 결과를 초래할 수 있는 원인이 됩니다.(링크) 특히 전문가들은 기존 신념에 반하는 정보를 고려하기보다 자신의 전문지식에 의존하려는 경향이 강하기 때문에 대안적인 관점을 검토하기 위해 의도적인 노력을 기울여야 합니다.
AI를 활용하면서도 자신감 과잉에 빠지지 않는 방법
불확실성을 축소하는 AI에 대한 신뢰가 자기 확신을 강화하는 굴레에서 벗어나기 위해서는 AI는 물론 자신과의 대화에도 ‘견제 장치’가 필요합니다. 또, 의도적으로 AI가 아닌 타인에게 피드백을 요청함으로써 예상치 못한 상황을 고려하고 이에 대한 대처 능력의 부족을 알아차리는 데 도움을 받을 수 있겠고요.
자기성찰을 위해 돌아보기
자신을 과신하는 경향을 경계하기 위해 자신의 신념이 어떻게 형성된 것인지를 되돌아볼 필요가 있습니다. 이러한 신념이 사고를 경직되게 하고 있지는 않은지도 반성해야 합니다. AI 모델에 입력하는 프롬프트에는 ‘내가 무엇을 해야 할까’라고 바로 해답을 구하는 질문 대신 ‘이 상황에서 스스로에게 어떤 질문을 할 수 있을까’와 같이(링크) 상황 인식을 바로잡고 자기성찰을 거치도록 유도하는 과정을 추가하는 것이 좋습니다.
피드백 요청하기
객관성을 시스템에 내재화하는 것이 중요하다고 전문가들은 조언합니다.(링크) 자신감이 과해 무리한 계획을 수립할 우려가 있다면, 과거 프로젝트 일정과 예산의 평균치를 참고해 향후 프로젝트 계획을 세우도록 가이드라인을 제시하는 식으로요. 구성원들에게 피드백을 요청하는 것도 시스템을 갖추는 것이 중요합니다.(링크) 예를 들어, 회의를 시작하기 전에 각자의 생각을 미리 적어두도록 하면, 먼저 제기되거나 더 강하게 주장된 의견이 토론을 지배하는 상황을 피하고 다양한 관점을 고려할 수 있는 환경을 조성할 수 있습니다.(링크) 이처럼 다양한 의견과 피드백을 제공하는 것을 제도화해서 강제하거나 인센티브를 제공하지 않으면 특히 리더에게는 이의를 제기하지 않을 이유가 많지요. 혹시 모를 보복에 대한 두려움이 깔려 있을 수도 있고, 충성에 대한 대가나 굳이 다른 의견을 고안해야 하는 노력을 줄일 수 있다는 당장의 편익이 커보일 수도 있기 때문입니다.(링크)
새로운 아이디어, 관점 구하기
새로운 정보나 자신의 신념에 반하는 증거를 구하고, 이에 따라 기꺼이 생각을 바꿀 준비를 해야 합니다. 그렇지 않으면 자신이 이미 갖고 있는 아이디어를 더 높이 평가하고, 자신에게 더 익숙한 선택지를 우선적으로 검토하는 경향이 있기 때문입니다.(링크) 반대 의견을 제시할 사람(devil’s advocate)을 찾는 것도 방법이 됩니다. 의사결정에 AI를 활용한다면 AI가 그저 사용자 편을 들며 아첨하지는 않는지를 경계하기 위해서 반대되는 선택을 제시했을 때 어떤 반응을 보이는지도 함께 살펴보면 좋습니다.(링크) 아직까지는 AI를 동료가 아닌, 도구로 보는 관점이 AI에 과도하게 의존하지 않고 균형 잡힌 판단을 내리는 데 도움이 되겠다는 생각도 드네요.




