11월 출퇴근길, 어떠셨어요? 얇은 코트나 재킷으로 다니는 사람이 많을 만큼 춥지 않았는데요.
패딩 특수를 기대했던 패션업계는 울상이고, 스키장 업계와 강원도 지역 축제에도 비상이 걸렸죠.
12월부터는 영하로 내려간다고 하는데, 이상 기온이 해마다 반복되는 듯합니다.
그런 측면에서, AI의 탄소발자국은 어떻게 계산할 수 있을까요?
엄청난 연산이 수반되는 만큼, 어마어마한 탄소를 배출하고 있는 게 아닐까요?
오픈 소스 언어 모델 "BLOOM"을 만든 AI 스타트업 허깅페이스(Hugging Face)가 관련 논문을 내서 들여다 보았습니다.
모델 트레이닝에 탄소 50톤, 이것도 적은 것?
허깅페이스의 블룸은 1,760억 파라미터의 언어 모델입니다. 논문에 따르면 블룸을 트레이닝할 때 배출된 탄소량은 24.7톤이지만 연산하기 위한 인프라와 하드웨어까지 고려하면 두 배인 50.5톤이라고 합니다. 이는 뉴욕에서 런던으로 60번 비행할 때 나오는 양이죠.
하지만 다른 대규모 언어 모델의 탄소 배출량보다는 훨씬 적은 수치입니다. 오픈AI의 'GPT-3'와 메타의 '옵트'는 훈련과정에서 각각 502톤과 70톤 이상의 탄소를 배출한 것으로 추정하고 있어요. 블룸의 배출량이 적은 이유는 원자력 발전소에서 나오는 전기로 슈퍼컴퓨터를 사용했기 때문인데, 화력발전소 기반의 중국, 호주, 미국 일부 지역에서 훈련된 모델은 더 많은 탄소를 뿜어낼 가능성이 높습니다.
(언어모델별 탄소 배출 추정치)
기존 모델 파인 튜닝 노력 필요
ICT 분야가 전세계 이산화 탄소 배출량의 2% 정도를 차지한다는 추정이 있지만 정확하진 않습니다.
하지만 대규모 언어 모델은 가장 큰 머신러닝 모델 중 하나이며, 천 억개가 넘는 파라미터를 훈련하는데 수백만 시간의 GPU 연산이 필요한 건 사실입니다.
AI 업계의 발전을 위해서 대규모 언어 모델이 필요한 부분도 있지만, 실제 비즈니스나 상용 솔루션 쪽에서는 기존 모델을 목적에 맞게 파인 튜닝하는 방법도 필요합니다. 효율적이면서도 탄소 배출량을 줄이며 ESG를 추구할 수 있는 방안이기도 합니다.
올거나이즈가 B2B 영역에서 지난 5년간 해온 일이기도 한데요. 각 산업별로 미리 훈련된 모델에 고객사의 데이터를 넣어 고객사 맞춤형으로 파인 튜닝된 AI 솔루션을 제공합니다.
- 금융권 계약서 내역 자동 추출, 계약서 검토에 들어가는 시간을 최소화
- 광고/정보 문자 발송시 내용 자동 분류로 가이드라인 준수 및 고객 편의 향상
- 패션, 뷰티 등 구매 후기의 감정 분석 및 카테고리 자동 분류, 제품 인사이트 발굴
올거나이즈의 솔루션에 대해 더 궁금하시거나 상담이 필요하시면 아래 버튼을 눌러주세요.
|