1화. 인공지능 반도체의 필요성

chatGPT의 돌풍과 인공지능 반도체의 부상
시리즈 총 5화
2023.04.10

읽는시간 4

0

chatGPT 를 통한 인공지능 현실화와 초거대 AI 모델의 발전

○ 오픈AI사가 공개한 chatGPT는 인간과 자연스러운 대화가 가능하다는 점에서 큰 주목을 받으며 사용자 확산

  • 미국 인공지능 기업 오픈AI는 초거대 AI(Super-Giant AI)¹인 GPT-3 출시에 이어 GPT-3.5 버전인 ‘chatGPT’를 2022년 11월에 공개²

    – 인간의 언어를 이해하며 자체적으로 판단하고 행동하는 수준으로 발전 중인 초거대 AI는 대화 및 코딩, 정보전달, 문서 작성 까지 가능한 chatGPT로 진화

  • chatGPT는 기술 완성도가 아직 미흡하다는 의견도 있으나, 자연스러운 대화를 통한 활용 확대로 창작, 코딩, 번역, 검색, 텍스트 요약 등 광범위한 영역에서 파급효과가 클 것으로 기대

    – 공개 5일만에 사용자 수가 100만명을 넘어섰고 2개월 만에 월간 이용자수 1억명을 돌파하는 기록을 세움

¹ 대용량 연산이 가능한 컴퓨팅 자원을 근간으로 사람의 뇌 구조를 모방해 방대한 자료를 스스로 학습하고 해답을 추론하는 AI. 기존 AI가 가진 데이터에서 해답을 찾는데 그친다면, 초거대 AI는 기존에 없던 답도 내놓을 수 있음

² 2023년 3월15일에 GPT-3.5의 업그레이드 버전인 GPT-4를 공개. GPT-4는 다수의 전문 시험에서 인간 수준의 능력을 보여주며 SAT 등 주요 시험에서 상위 10%의 결과를 기록. 매개변수 등 구체적인 스펙 사항은 비공개

chatGPT의 개발과 발전 연혁

구분 내용
2018년 대규모 언어학습모델 GPT1 출시
2019년 9월 GPT-2 모델 업그레이드
2020년 6월  GPT-3 출시
2021년 1월 이미지분류기술 접목
9월 책 요약 기술 접목
10월 수학 문제 풀이기술 접목
2022년 11월 GPT-3.5버전의 chatGPT 출시
2023년 3월 GPT-4 출시

자료: IITP

chatGPT 개요

구분 내용
개발기업 오픈(open)AI
출시일 2022.11.30
AI 모  GTP-3.5(파라미터 1750억개)
홗용 분야 번역, 창작, 코딩, 문서 생성, 텍스 트 요약, 통계산출
주요 사항 미국 의사면허 시험 통과
로스쿨 졸업시험 평균 C+ 학점
와튼MBA 기말시험 B학점 

자료: IITP

○ chatGPT의 상업적인 성공을 계기로 초거대 AI의 개발 경쟁이 더욱 촉발될 것으로 보임

  • 인공지능은 대용량 연산이 가능한 컴퓨팅 인프라를 기반으로 대량의 데이터를 인간처럼 종합적으로 학습·사고·추론하는 초거대 AI의 개발이 주요 기업을 중심으로 진행

    – 초거대 AI는 기존 인공지능 대비 모델 파라미터³수와 학습 데이터를 늘려 성능을 높인 모델이며, 다양한 인간의 능력을 모방하기 위해서는 모델이 복합 지능을 갖춰야 함

    – GPT-3가 이전 세대 대비 파라미터 크기를 116배 가량 키워 성능이 향상됨을 입증하면서, 인간의 두뇌와 같은 범용 AI를 위해서는 초거대 AI모델 필요성이 부각

³ 학습한 데이터를 보관하는 장소인 파라미터는 인간 뇌의 시냅스(뉴런 간 정보 전달 통로)와 유사한 기능을 수행하며, 파라미터 수가 많을수록 인공지능은 높은 성능을 보임

초거대 AI모델 발전과 파라미터 수 증가

'AI모델'의 발전과 '파라미터' 수 증가에 따른 'chatGPT'의 발전 그래프.

자료: 관련자료 종합

초거대 AI 모델의 필요 계산속도 증가

'AI모델'의 발전에 따라 필요한 '계산속도'가 증가함을 나타내는 그래프.

자료: Amir Gholami

○ 초거대 AI의 원활한 동작은 방대한 데이터를 처리할 수 있는 초고성능 컴퓨팅 자원이 필수적 조건이며, 이로 인해 인공지능 연산에 최적화된 인공지능 반도체에 산업계의 관심이 모아짐

  • 방대한 양의 데이터 학습과 조 단위의 파라미터 처리가 필요한 초거대 AI 모델의 원활한 동작을 위해서는 초고성능의 컴퓨팅 파워가 필요

    – 초거대 AI 모델의 데이터 학습에는 기존과 비교할 수 없는 연산량과 고속 데이터 처리 속도가 필요

  • 이로 인해, 인공지능의 성능이 향상 될수록 기존 반도체의 성능과 연산 방식을 뛰어넘는 인공지능 연산에 최적화 된 인공지능 반도체가 필요

    – 인공지능 활용이 구체적으로 다가옴에 따라 인공지능 연산에 최적화 된 인공지능 반도체에 반도체 및 인공지능 업계의 관심이 모아짐

□ GPT-3 학습에 사용되는 자원은 얼마나 될까?

  • GPT-3 175B의 학습에 필요한 학습 연산량은 3.14E+23FLOPS⁴
  • 엔비디아 GPU인 V100의 연산속도는 28E+12FLOPS로 단일 GPU로 GPT-3를 학습시키는데 필요한 시간은 약 355년
  • 이에 따라, 1년 안에 GPT-3 모델을 학습시키기 위해서는 산술적으로 V100 GPU 355개와 메모리 반도체 DRAM 32GB(기가바이트)x355=11,360GB가 필요(2022년 DRAM 총수요 223억GB)
  • Azure 클라우드 사용비용으로 환산한 GPT-3의 1회 학습비용은 약 856만 달러에 달함

⁴ 플롭스(FLOPS, Floating point operations per second)는 초당 부당소수점 연산이라는 의미로 컴퓨터의 연산 성능을 나타낼 때 주로 사용되는 단위

심경석

KB경영연구소

심경석

금융용어사전

KB금융그룹의 로고와 KB Think 글자가 함께 기재되어 있습니다. KB Think

이미지