dd-techdb-03

# 콘텐츠 구성

딥러닝 기본 개념

21세기 AI를 이해하는 열쇠

딥러닝(Deep Learning)은 인공지능(AI) 학습기법의 한 종류입니다. 특히 인간의 뇌 신경망을 모방한 인공신경망(ANN) 기술의 대표주자로 꼽힙니다. 실용성과 성능이 뛰어나 오늘날 대부분의 AI는 딥러닝을 활용한다고 봐도 과언이 아닙니다. 또한 세계적으로 화제인 생성형 AI 기술도 그 뿌리는 딥러닝에 있죠. 한마디로 딥러닝은 오늘날 AI 기술의 흐름과 원리를 이해하고자 할 때 반드시 필요한 열쇠인 셈입니다.

딥러닝의 기술 특징

뇌를 닮은 정보처리 방식

딥러닝의 데이터 처리 과정은 인간의 뇌와 대단히 닮았습니다. 뇌는 수많은 뉴런(Neuron, 신경세포)이 연결된 신경망을 통해 전달하는 생체신호로 데이터를 처리하는데요. 가령 뇌의 시각정보 처리 과정을 짧게 설명하면 다음과 같습니다.

(1)먼저 눈이 감지한 빛은 (2)시신경을 거쳐 시각피질로 전달됩니다 (3)시각피질은 여러 단계로 이 데이터를 분석합니다 (4)처음에는 간단한 형태(선, 각도 등)부터 시작해 복잡한 형태(얼굴, 물체 등)까지 분석하며 (5)분석된 최종 결과물을 우리가 ‘인지’하게 됩니다.

딥러닝은 (1)데이터가 입력되면 (2)‘합성곱 신경망(CNN)’으로 이를 분석합니다. 이 인공신경망은 (3)시각피질처럼 여러 층으로 구성돼 있습니다. (4)각 층은 입력 단계와 가까울수록 간단한 정보를 처리하고, 깊은 층으로 이동할수록 복잡한 특징을 처리합니다. (5)마지막 층은 특징들을 취합해 입력물에 대한 최종 결과물을 내놓습니다. 어떤가요, 정말로 뇌와 비슷하지 않나요?

이때 분석층은 단계를 더할수록 더 다양하고 추상적인 정보들을 처리할 수 있습니다. 딥러닝이란 이름도 이 점에서 나온 건데요. ‘딥(Deep, 깊은)’은 AI 알고리즘의 데이터 분석층 깊이를 의미하고, ‘러닝’은 기계학습(Machine learning)을 의미합니다. 이름 그대로 심층학습과 분석에 특화된 기계학습 알고리즘인거죠.

물론 이는 뇌가 정보를 처리하는 방식의 극히 일부만 모방한 겁니다. 그런데 이것만으로도 AI 기술은 놀랍도록 진보했습니다. 딥러닝에 이른 인공신경망이 드디어 ‘자동 특징 추출’ 능력을 갖게 된 덕분입니다.

강아지를 조사하는 AI 로봇
ⓒ DALL·E

하나를 가르치면 열을 아는 AI

딥러닝 이전 인공신경망 기술의 한계는 사람이 학습 데이터의 특징을 직접 지정(라벨링)해줘야 했다는 점입니다. 이를 ‘지도학습’이라고 해요. 예컨대 AI가 고양이를 인식하게 하려면 ‘고양이’란 이름표가 붙은 학습용 사진 100장이 필요하다고 해봅시다. 이 사진에는 이름표 외에 고양이의 특징(눈, 귀, 꼬리 등)도 적혀 있는데요. AI는 이 데이터로 고양이들의 특징을 학습하게 됩니다.

문제는 이 방식으로 사물 하나를 가르치려면 대단히 많은 데이터와 그것을 정제하는 사람의 노고가 필요하다는 점입니다. 또한 사람과 기계는 사물에 대한 인식 기준이 다를 수밖에 없는데 사람 기준의 특징들만 학습한 AI에서는 실제로 기대한 만큼 높은 인식률을 기대하기 어렵습니다.

딥러닝은 다릅니다. 앞서 설명한 것처럼 간단한 정보부터 복잡한 정보까지 처리하고 인식하는 여러 분석층을 지나면서 주어진 데이터에서 스스로 정의한 특징, 규칙 등을 찾아낼 수 있게 됐거든요.

데이터라벨링 예시
이미지 데이터라벨링 예시 (ⓒ 데이터메이커 홈페이지)

우리가 어떤 사물의 특징을 설명할 때 사람마다 설명이 각기 다른 이유는 각 사람이 기억하는 사물의 특징적 요소가 모두 다르기 때문입니다. 그 특징에 정해진 답은 없죠. 중요한 건 어떤 특징을 활용하든 정확한 답을 내는 겁니다. 딥러닝도 마찬가지에요. 깊은 분석층을 활용할수록 찾아낸 특징에서 또다른 특징을 찾고, 그것을 반복해가는 과정에서 아주 추상적이지만 정답률이 높은 특징과 규칙을 찾아낼 수 있게 되는 겁니다.

이렇게 AI가 자동으로 특징을 추출할 수 있게 되면서 더이상 사람이 모든 데이터를 라벨링하는 시대는 끝났습니다. 기본 학습에 필요한 데이터, 학습 결과를 보정하기 위한 데이터만 라벨링이 잘 정제된 데이터를 주면 되죠. 이렇게 사전학습이 잘 된 AI는 이후 어떤 사진을 줘도 준수한 인식률을 보이게 됩니다. 또한 그렇게 입력된 데이터가 늘어날수록 내부 학습을 통해 더 정확한 특징들을 찾아내죠. 흔히 ‘AI는 사용할수록 똑똑해진다’고 소개되는 말이 이 같은 원리를 바탕으로 한 것입니다. 이를 ‘비지도학습’이라고 합니다.

딥러닝 응용 기술

내 마음을 훔쳐본 유튜브?

자동 특징 추출이 가능해지면서 AI의 기본 성능 향상은 물론이고, 활용 분야도 데이터 분류와 예측, 추천 등으로 훨씬 다양해졌습니다. 여기서 파생된 AI 서비스는 정말 다양한데요. 그중 ‘맞춤형 추천 서비스’들이 일상에서 딥러닝 AI의 특징을 가장 복합적으로 활용한 사례일 겁니다.

일례로 유튜브나 넷플릭스 같은 서비스들은 몇번만 사용해도 우리 취향에 걸맞은 콘텐츠를 척척 추천해 줍니다. 이 과정도 단순하게 정리하면 다음과 같은데요. (1)나처럼 콘텐츠 A를 시청한 사람들의 집단 데이터를 만듭니다. (2) AI가 그들이 다음에 시청한 콘텐츠 B와 C 등의 특징을 추출합니다. (3)B, C와 특징 데이터가 비슷한 콘텐츠 D, E 등을 찾아냅니다. (4) D, E 등을 ‘A 콘텐츠를 본 사람이 좋아할 만한 콘텐츠’로 묶어 추천할 수 있게 됩니다.

여기서 중요한 건 B, C의 특징을 추출하고 이와 비슷한 영화 D, E를 찾는 과정인데요. 딥러닝 이전 AI나 사람이 직접 특징을 추출하는 방식으론 정밀함에 한계가 있었습니다. 하지만 딥러닝 모델은 다단계의 분석층을 거치면서 사람이 놓친 콘텐츠간 공통점과 특징까지도 스스로 추출함으로써 이 한계를 보완할 수 있습니다.

나아가 이렇게 얻은 데이터의 집단이 커질수록 통계적으로 제시된 추천 콘텐츠를 시청한 사용자가 그다음에는 어떤 콘텐츠를 찾을지 예측하는 정확도도 점점 더 개선되는 효과를 기대할 수 있죠.

유튜브 추천예시
사용자 맞춤형 추천영상 서비스 예시 (ⓒ 유튜브)

알파고 = 딥러닝+강화학습

딥러닝은 다른 기계학습 기법과 융합되어 또다른 성능 향상을 이끌어내기도 합니다. 2016년 인간 바둑챔피언 이세돌 9단을 꺾은 바둑 AI 알파고를 떠올려 볼까요. 구글 딥마인드가 개발한 알파고는 딥러닝의 잠재력을 상징하는 유명한 사례로 회자됩니다. 하지만 알파고가 딥러닝만으로 만들어진 건 아닙니다. 하지만 복잡한 이야기므로 이 사례도 최대한 쉽고 단순하게 설명해보겠습니다.

알파고는 인간 기사들의 전통적인 바둑 진행 방식은 물론, 그 전에 볼 수 없었던 ‘신의 한수’들로 이 9단을 몰아붙였습니다. 이때 알파고 내부에선 크게 ▲신경망 ▲정책망 ▲가치망 등이 동작하고 있었는데요. 기능은 조금씩 다르지만 각각 ▲바둑판의 현재 상태 인식(신경망) ▲다음에 두면 좋은 수 선택(정책망) ▲현재 상태에서의 승률 계산(가치망) 등이 반복되면서 매번 이 9단을 당황하게 하는 최선의 수를 내놓을 수 있었죠. 모두 딥러닝의 특징과 패턴 인식·분석을 기반으로 한 인공신경망들입니다.

알파고는 여기에 이세돌 9단과 만나기 전 ‘강화학습’이란 기법으로 바둑 실력을 키웠습니다. 딥러닝은 주어진 데이터에서 특징을 찾아내는 방식이죠. 강화학습도 비슷하지만 AI 모델이 설정된 보상 조건을 달성하기 위해 스스로 데이터를 실험하고 최적의 답을 얻어가는 방식이란 점에서 다릅니다.

이때 알파고는 ‘바둑 게임의 승리’라는 목표를 두고 ‘승리하면 1점’, ‘패배하면 ‘0점’ 같은 식으로 초기 세팅을 받습니다. 그리고 점수를 획득하는 방향으로 알고리즘이 작동하도록 하고 기본적인 바둑 규칙을 익힌 알파고 A와 알파고 B를 대국시킵니다. 이때 두 알파고는 각자의 판단으로 수를 두고 승률을 확인합니다. 처음에는 초보와 다를 바 없지만 이런 셀프대국이 진행될수록 반복을 통해 특정 상황에서 승률이 높은 수만 고르게 되므로 점차 실력이 향상됩니다. 마침내 인간 바둑기사는 쓰지 않지만 충분히 효용성 있는 수까지 찾아 두는 경지에 이르게 되죠.

딥마인드 알파고
ⓒ 딥마인드

사실 이는 사람과 다르지 않습니다. 우리도 회사에서 좋은 고과를 얻기 위해 최적의 업무 방식을 연구하죠. 시간이 지날수록 점점 그 노하우는 정교해집니다. 그렇게 연차가 10년, 20년씩 된 이들은 1~2년차 신입사원의 실수를 쉽게 저지르지 않습니다. 같은 문제에서도 경험에서 비롯된 좋은 선택지를 고를 확률도 더 높죠.

강화학습도 이처럼 AI에게 목표를 주고, 그것에 도달하는 방식을 스스로 시험하며 찾아가게끔 하는 것이 핵심입니다. 하지만 그 전에 최적의 데이터 특징과 규칙을 도출하고, 강화학습에서 도출된 데이터 또한 효과적으로 분석할 수 있도록 돕는 기술이 바로 딥러닝이죠. 궁극적으로 알파고는 이 딥러닝과 강화학습의 긴밀한 상호작용 결과물로서, 인간이 수천년간 쌓아온 바둑판의 노하우를 격파하고 인간 챔피언을 잡아낸 겁니다.

이밖에 서두에 생성형 AI도 딥러닝 기술에 뿌리를 두고 있다고 언급했습니다. 하나하나 모두 설명할 수 없지만 데이터에서 특징과 규칙을 찾아내는 능력은 굉장히 많은 데이터 관련 기술, 서비스 분야에 밑바탕이 됩니다. 검색, 추천, 게임, 운전, 예측, 진단, 검사, 창작 등등 말이죠. 이를 세분화하면 사실상 우리가 접하는 거의 모든 기술과 서비스에서 딥러닝을 마주할 수 있을 겁니다.

딥러닝의 한계와 숙제

그러나 딥러닝에도 약점과 한계, 개선되어야 할 문제들은 있습니다. 당장 개별적으로 크게 부각되는 점은 아니지만 사실상 전 산업의 AI 인프라 기술로 쓰일 딥러닝이기에, 중장기적인 불안 요소들도 이해하고 해결해 나갈 필요가 있죠.

데이터 의존성

딥러닝은 데이터의 특징과 규칙 도출에 특화된 기술이라고 설명했습니다. 이 말은 즉, 딥러닝이 주어진 학습 데이터의 영향을 다각도로 크게 받는다는 이야기입니다. 직접적으론 잘못되거나 편향된 데이터가 주어질 경우 딥러닝은 그것의 참, 거짓을 분별할 능력이 없습니다.

이 경우 왜곡된 정보에서 아무리 새로운 특징과 규칙을 찾아봐야 모두 무가치한 데이터가 될 뿐이죠. 이 문제를 해결하려면 근본적으로 개발자들이 편향성을 줄이고, 학습 데이터에 대한 공정성과 투명성을 검증할 수 있는 도구를 발전시켜 나가는 것이 중요합니다.

MS 테이
2016년 마이크로소프트가 공개한 딥러닝 기반 트위터(현재 ‘X’) 챗봇 ‘테이(Tay)’는 공개 직후 사용자들이 입력한 인종차별적, 폭력적 트윗을 학습해 답변에 활용했다가 큰 비판을 받았다. 딥러닝의 데이터 품질, 의존성이 얼마나 중요한지 제시한 유명한 사례이기도 하다. (ⓒ X : @geraldmellor)

적대적 공격

데이터 의존성과 연결되는 문제입니다. ‘적대적 공격’이란 딥러닝 모델을 혼란시키기 위해 악의적으로 노이즈 데이터를 입력시키는 것을 말합니다. 이때 사람의 눈에는 잘 띄지 않지만 딥러닝은 충분히 감지할 수 있는 데이터에 변화를 줌으로써 이를 학습한 AI가 엉뚱한 결과물을 내놓도록 할 수 있죠. 조금 전 말했듯 딥러닝 자체는 주어진 데이터가 참인지 거짓인지 판별할 능력이 없기에 이런 공격에 취약할 수밖에 없습니다.

만약 자율주행 AI 데이터가 이 같은 공격을 받는다면? 고속으로 달리던 중 전방 사물이나 표지판을 오인식해 사고가 나도록 유도하는 것도 불가능한 일은 아니죠. 따라서 개발사가 설계 단계부터 적대적 공격 예제를 데이터에 포함하는 형태로 내성을 주거나, 별도의 보안 프로토콜로 데이터 공격을 즉각 감지할 수 있는 체계를 갖춰야 합니다.

AI 블랙박스

‘AI의 블랙박스’라 불리는 문제도 있습니다. 딥러닝이 어떤 결과를 도출했는데, 사람은 왜 그런 결과가 나왔는지 판단할 수 없는 문제죠. 좋은 딥러닝 모델을 많은 분석층을 거쳐 데이터를 처리한다고 말씀드렸습니다. 그렇게 대개 좋은 결과를 내놓지만, 결과의 판단 근거가 필요한 경우도 있습니다.

가령 AI가 MRI 사진을 분석해 암을 진단했는데 사람의 눈으론 극히 미세한 병변을 발견했기 때문일 수 있고, 오진일 수도 있습니다. 이 경우 왜 그런 판단을 내렸는지 확인할 수 있어야 하는데 AI도 너무 많은 계층을 거쳐 데이터를 처리하다 보면 그 근거를 제시하는데 어려움을 겪게 되죠. 사람과 비교하면 우리도 ‘직감적으로’ 내린 선택에 대해선 왜 그런 판단을 했는지 즉각 상세하게 설명하기 어려운 것과 같습니다.

이 문제는 AI의 신뢰성 및 투명성 문제와도 밀접한 관련이 있습니다. AI는 지금도 빠른 속도로 다양한 산업과 서비스에 새롭게 접목되고 있습니다. 사실상 모든 산업과 일상에 AI가 관여할 날이 멀지 않아 보이는데요. 어떤 경우에도 AI의 판단과 조언을 신뢰할 수 있도록 보완 기술들이 함께 고도화될 필요가 있습니다.

한편, 우리 정부에서는 2023년 AI 신뢰성 평가 플랫폼 개발을 위한 민간 용역을 발주하기도 했죠. 이처럼 표준화된 신뢰성 평가 기준을 마련하는 것도 블랙박스 문제를 최소화하고 투명성을 평준화하는데 도움이 될 것으로 기대됩니다.

과도한 자원 소모

안타깝지만 현재까지 ‘고성능 AI 가동 = 고비용’이란 공식이 일반적으로 통용됩니다. 특히 대규모 데이터를 다단계에 걸쳐 빠르게 처리해야 하는 딥러닝은 그만큼 강력한 컴퓨팅 파워를 필요로 하는데요. 이를 뒷받침하는 연산장치, 서버 인프라, 데이터센터 유지보수 등에 많은 비용이 필요합니다. 딥러닝은 데이터셋을 늘리고 분석층도 추가할수록 비례해 더 좋은 성능을 내는 방식이지만 이런 한계 때문에 모든 경우에 고성능 딥러닝을 자유롭게 활용하기 어려운 문제가 있습니다.

또한 고성능 AI 시스템 가동에 방대한 컴퓨팅 자원이 필요하다는 말은 곧, 막대한 에너지 자원이 소비된다는 말과도 같습니다. 대개 전력을 사용하는데요. 이 전력의 상당수는 여전히 화석에너지를 통해 생산되고 있죠. 다행히 글로벌 빅테크 기업들을 중심으로 컴퓨팅 자원 가동에 친환경 에너지 활용 비중을 높이는 운동이 계속 확대되고 있는데요. AI 확산 속도가 이를 따라잡을 수 있을지는 미지수입니다.

이를 해결하기 위해선 딥러닝 모델 개선뿐 아니라 저비용 고성능 컴퓨팅 하드웨어 개발, 효율적인 친환경 에너지 생산 연구, 보다 효과적인 에너지 관리 방안 등 다방면에서 공동의 협력과 연구가 중요합니다.

쉽게 읽는 ‘딥러닝’ [테크DB]

연관 콘텐츠

# 콘텐츠 구성

Picture of EDITOR 이건한

EDITOR 이건한

IT 전문미디어 디지털데일리 기자 겸 테크콘텐츠랩 총괄 에디터. ⓔ sugyo@ddaily.co.kr