확률적 vs 결정론적 사고: AI가 보여주는 진짜 지능
결정론적 사고의 함정
우리가 학교에서 배운 사고방식은 대부분 결정론적이다. "이렇게 하면 반드시 이런 결과가 나온다." IF-THEN 규칙 기반으로 생각하는 것이다.
수학 문제를 풀 때는 이런 방식이 통한다. 2+2는 항상 4다. 하지만 현실은 수학 문제가 아니다. 현실에서는 2+2가 3.8일 수도 있고 4.2일 수도 있다.
1986년에 유행했던 전문가 시스템이 바로 이런 결정론적 접근법이었다. 전문가의 모든 지식을 규칙으로 만들어 컴퓨터에 넣으면 전문가만큼 똑똑해질 거라고 생각했다. 하지만 실패했다. 왜? 현실은 규칙으로 다 설명할 수 없기 때문이다.
결정론적 사고의 문제점:
- 예외 상황에 취약하다
- 새로운 상황에 적응하기 어렵다
- 복잡한 현실을 단순화하려다 보니 중요한 정보를 놓친다
- "100% 확실하지 않으면 하지 말자"는 소극적 태도로 이어진다
확률적 사고의 힘
반면 확률적 사고는 현실적이다. "이렇게 하면 이런 결과가 나올 가능성이 높다." 데이터와 경험을 바탕으로 추정하되, 틀릴 수 있음을 인정한다.
확률적 사고의 장점:
- 불완전한 정보로도 의사결정할 수 있다
- 새로운 정보가 들어오면 업데이트한다
- 여러 시나리오를 동시에 고려한다
- 실패를 학습 기회로 활용한다
그리고 놀랍게도, 틀릴 수 있음을 인정하는 확률적 사고가 오히려 더 정확한 결과를 만들어낸다.
AI는 왜 확률적으로 사고할 수밖에 없을까?
1. 현실은 흐릿한 사진 같다
AI가 마주하는 현실 세계는 선명한 디지털 사진이 아니라 손떨림으로 찍은 흐릿한 사진 같다. 완벽한 화질을 기대하고 만든 시스템은 실제 상황에서 제대로 작동하지 않는다. 반면 "어차피 사진이 좀 흐릿할 거야"라고 예상하고 만든 시스템이 오히려 더 잘 작동한다.
예를 들어 자율주행차를 보자. 도로에서 마주치는 상황은 매번 다르다. 보행자가 갑자기 뛰어들 수도 있고, 다른 차가 예상과 다르게 움직일 수도 있다. 이런 상황에서 "100% 확실한 규칙"만으로는 대응할 수 없다. 확률적으로 "이 상황에서 멈출 확률 95%, 좌회전할 확률 80%" 이런 식으로 판단해야 한다.
2. AI도 "잘 모르겠어요"라고 말할 줄 안다
사람들이 좋아하는 AI는 뭔가 물어보면 뭐든 자신 있게 대답하는 AI다. 하지만 정작 더 똑똑한 AI는 "확실하지 않아요"라고 솔직하게 말하는 AI다.
일반적인 AI가 "이건 고양이입니다!"라고 단정적으로 답한다면, 더 발전한 AI는 "고양이 같긴 한데... 개일 수도 있고... 확실하지 않네요"라고 답한다. 후자가 훨씬 믿을 만하다.
3. 두 가지 종류의 "모르겠음"
AI가 "모르겠다"고 할 때 두 가지 이유가 있다:
타고난 애매함 동전 던지기처럼 본질적으로 예측하기 어려운 것들. 아무리 데이터를 많이 모아도 어쩔 수 없다. 마치 "오늘 비가 올까?"를 예측하는 것과 같다.
경험 부족 처음 보는 상황이라 판단하기 어려운 것들. 더 많은 경험을 쌓으면 나아질 수 있다. 마치 "이 새로운 요리가 맛있을까?"를 추측하는 것과 같다.
4. AI가 추측하는 방식
AI는 마치 탐정처럼 사건을 수사한다. 여러 단서들을 조합해서 "범인이 A일 가능성 60%, B일 가능성 30%"라는 식으로 추론한다.
의료진단 AI는 증상들을 보고 "당뇨병일 가능성이 높고, 다른 질병일 가능성도 있으니 추가 검사를 해보자"라고 판단한다. 마치 경험 많은 의사가 하는 것처럼.
주식 예측 AI는 시장 상황을 보고 "숨겨진 요인들이 있는 것 같은데, 지금 정보로는 상승할 확률이 높아 보인다"라고 추정한다.
5. 일상 속 AI들의 솔직한 고백
ChatGPT와 친구들 "다음에 올 단어가 뭘까?" 할 때 내부적으로는 "음... '확률'이라는 단어가 올 가능성이 제일 높긴 한데..."라고 생각한다. 확신하는 척하지만 실은 추측이다.
구글 포토 사진을 보고 "이게 고양이야, 개야?" 할 때 내부적으로는 "흠... 고양이 같기도 하고... 확실하지 않네"라고 망설인다.
넷플릭스 추천 "이 영화 좋아할 것 같은데?"라고 추천할 때 실제로는 "비슷한 취향의 사람들이 좋아했으니까 이 사람도 좋아할 거야... 아마도?"라고 추측한다.
6. "모른다"고 말하는 AI가 더 안전하다
오늘날 많은 AI들이 헛소리를 진짜처럼 포장해서 말하는 문제가 있다. 자율주행차가 앞에 있는 사람을 못 보고 지나간다거나, 대화 AI가 없는 사실을 지어내서 말한다거나.
최신 연구에서는 AI가 "이건 잘 모르겠어요"라고 솔직하게 말할 수 있는 방법을 개발하고 있다. 확신이 없을 때는 솔직하게 인정하는 AI가 거짓말하는 AI보다 훨씬 믿을 만하다.
확률적 사고가 만드는 변화
개인 차원의 변화
확률적으로 사고하기 시작하면 삶이 달라진다.
스트레스가 줄어든다. "100% 확실해야 한다"는 부담에서 벗어나기 때문이다. "70% 확률로 좋은 결과가 나올 것 같은데, 한번 해보자"라고 생각하면 마음이 편해진다.
빠른 의사결정이 가능해진다. 완벽한 정보를 기다리지 않고도 결정할 수 있다. "지금 가진 정보로는 이게 최선인 것 같다"고 판단하면 바로 행동한다.
실패에 대한 두려움이 줄어든다. 애초에 100% 성공을 기대하지 않기 때문이다. "30% 확률로 실패할 수도 있다"고 생각하고 시작했다면, 실패해도 "예상 범위 내"라고 받아들일 수 있다.
지속적 학습이 가능해진다. 결과에 상관없이 "이번 경험으로 확률 추정 능력이 향상됐다"고 생각한다. 성공하면 "역시 잘 봤구나", 실패하면 "다음엔 더 정확히 예측할 수 있겠다"고 여긴다.
조직 차원의 변화
조직이 확률적으로 사고하기 시작하면 더 큰 변화가 일어난다.
혁신이 늘어난다. "100% 확실하지 않으면 하지 말자"는 문화에서 "70% 정도면 시도해보자"는 문화로 바뀐다. 더 많은 실험이 일어나고, 그중 일부는 큰 성공으로 이어진다.
의사결정 속도가 빨라진다. 완벽한 데이터를 기다리지 않고도 결정한다. "현재 정보로는 A안이 60% 확률로 더 좋을 것 같다. 일단 해보자"는 식이다.
실패에 대한 관용이 생긴다. "확률적으로 접근했는데 운이 나빴다"는 식으로 이해한다. 실패한 사람을 비난하는 대신 "다음엔 어떻게 확률을 더 정확히 예측할 수 있을까?"를 고민한다.
데이터 기반 문화가 자리잡는다. 확률적 사고는 데이터를 전제로 한다. 추측과 경험에만 의존하던 조직이 데이터를 중시하는 조직으로 바뀐다.
확률적 사고의 함정과 주의사항
물론 확률적 사고에도 함정이 있다.
과신의 위험 "내 예측은 대부분 맞다"고 과신하면 위험하다. 확률적 사고의 핵심은 겸손함이다. "틀릴 수 있다"는 가능성을 항상 염두에 두어야 한다.
확률의 오남용 "성공 확률 90%"라고 말하면서 실제로는 대충 짐작한 경우가 많다. 확률은 데이터와 경험에 기반해야 한다. 근거 없는 확률은 오히려 독이 된다.
극단적 확률의 문제 "확률 1%"나 "확률 99%"는 사실상 "불가능"이나 "확실함"과 다르지 않다. 확률적 사고의 진가는 30%-70% 범위에서 나온다.
확률과 결과의 혼동 "70% 확률로 성공한다고 했는데 실패했네? 예측이 틀렸다"는 것은 잘못된 생각이다. 70% 확률이라는 것은 30% 확률로 실패할 수도 있다는 뜻이다.
AI에서 배우는 추측의 지혜
현대 AI가 잘하는 것은 "완벽한 답"을 찾는 게 아니라 "그럴듯한 추측"을 하는 것이다. 경험을 통해 데이터에서 패턴을 찾아내고, 그 패턴을 바탕으로 새로운 상황을 추측한다.
AI가 추측하는 이유는 단순하다. 그것이 현실을 가장 정확하게 반영하는 방법이기 때문이다.
완벽주의 AI는 "고양이입니다"라고 단정한다. 현실주의 AI는 "고양이 같아요"라고 추측한다. 어느 쪽이 더 현실적이고 신뢰할 만한가?
AI는 불확실한 상황에서도 합리적인 판단을 내리는 법을 보여준다. 이것이 바로 우리가 배워야 할 점이다.
세상은 불확실하다. 그 불확실성을 인정하고 추측하며 살아가는 것이 더 현실적이고 지능적인 접근법이다. AI는 이미 그렇게 하고 있다. 이제 우리 차례다.
추측이 곧 지능이다. 의사도 추측으로 진단하고, 웨이모도 추측으로 운전하고, AI도 추측으로 학습한다. 우리만 100% 확실해야 한다고?