다나와 AI 벤치마크 랩에 오신 것을 환영합니다!
AI 벤치마크 랩은 PC 주요부품 및 노트북의 AI 처리 성능을 세부적으로 분석한 콘텐츠입니다. 데이터 측정에 이용한 프로그램은, 모바일 및 PC 환경에서 폭넓게 활용하는 '긱벤치(Geekbench) AI'와 3D MARK로 유명한 UL사의 '프로키온(Procyon) AI'입니다.
AI Benchmark LAB
by danawa
● Geekbench AI
1. 이미지 분류: 입력 이미지 카테고리 예측 / 이미지 세분화: 픽셀 단위로 객체 분류
2. 포즈 추정: 인체 관절 위치를 예측 / 객체 탐지: 객체의 위치와 분류를 탐지 / 얼굴 인식: 얼굴 위치 탐지
3. 깊이 추정: 깊이감 있는 맵 생성
4. 이미지 초해상도: 저해상도를 고해상도로 변환 / 스타일 전환: 이미지 스타일 변환
5. 텍스트 분류: 텍스트 감정 분석 / 기계 번역: 영어를 프랑스어로 번역
● Procyon AI
1. Computer Vision Benchmark: 이미지 분류와 객체 인식 등 컴퓨터 비전 작업 성능 확인
2. AI Image Generation: 텍스트 기반 이미지 생성의 처리 속도와 품질 확인
3. AI Text Generation Benchmark: 자연어 처리(NLP) 성능과 텍스트 생성 효율성 확인
1. 측정 제품 : LG Gram15 15ZD90RU-GX54K
첫 번째 벤치마크 대상은 LG전자 그램 15 15ZD90RU-GX54K. 기존 그램 시리즈를 잇는 초경량 노트북으로 CPU는 13세대 인텔 코어 i5-1334U 10코어(2P+8E)를 채택했다. 전력효율이 좋고 멀티태스킹 성능도 두루 사용할 수 있는 수준. 그래픽은 인텔 iRIS Xe 내장그래픽을 탑재했다. 저장장치로 NVMe SSD를 기본 장착, 추가 M.2 슬롯을 통해 용량을 확장할 수 있다. 80Wh 대용량 배터리로 한 번 충전이면 하루 종일 사용할 수 있어 이동이 잦은 사용자에게 이상적인 노트북. 물론 65W USB-PD 어댑터라면 빠른 충전도 가능하다.
2. Geekbench AI 측정
NPU, CPU, GPU 등 각 프로세서가 AI 작업에서 얼마나 효율적으로 작동하는지 파악하기 위해 OpenVINO와 ONNX를 사용한다. OpenVINO(Open Visual Inference and Neural network Optimization)는 Intel에서 개발한 AI 모델 최적화 및 추론 툴킷으로, 다양한 플랫폼에서 딥러닝 모델의 성능을 극대화하는 데 사용된다. ONNX(Open Neural Network Exchange)는 AI 모델의 프레임워크 간 호환성을 제공하는 개방형 표준 형식이다.
ㄱ. CPU Score
인텔 코어 i5-13세대의 성능은 위와 같다. (i5-1334U)/1.3GHz/10코어(2P+8E)
ㄴ. DirectML Score
DirectML은 GPU 가속 딥러닝을 지원하는 API로, Windows 환경에서 딥러닝 모델의 추론 속도와 효율성을 높이는 데 사용된다. 해당 점수는 주로 이미지 분류, 객체 탐지, 스타일 전환 등 다양한 AI 작업을 실행할 때의 처리 성능을 기준으로 평가한다. 점수가 높을수록 해당 하드웨어가 DirectML을 통해 AI 작업을 더 빠르고 효율적으로 처리할 수 있음을 의미한다.
ㄷ. GPU Score
GPU는 인텔 내장그래픽 Iris Xe를 사용한다.
4. Procyon AI
ㄱ. Computer Vision Benchmark
텍스트 기반 이미지 생성의 처리 속도와 품질 확인
GPU Float16 : 복잡한 작업(REAL-ESRGAN)에서 상대적으로 우수한 성능
GPU Float32 : GPU 기반 Float32 정밀도는 다양한 작업에서 안정적인 성능을 보여줌
YOLO V3, DeepLab V3 등에서 균형 잡힌 결과
GPU Integer : GPU Integer 연산은 MobileNet V3에서 상대적으로 느림 (27.72ms), 종합 점수(33) 낮음
CPU Float16 : CPU Float16 정밀도는 전반적으로 성능이 낮음, 복잡한 작업에서 매우 긴 추론 시간을 기록
CPU Float32 : MobileNet V3에서 빠른 추론 시간을 기록 (2.18ms), 복잡한 작업(REAL-ESRGAN)에서 긴 시간 소요
CPU Integer : CPU 기반 정수(Integer) 연산은 MobileNet V3에서 가장 빠름 (1.62ms)
REAL-ESRGAN에서 매우 긴 처리 시간(10171.42ms)을 기록
ㄴ. Image Generation Benchmark
총 점수 (Overall Score): 481
테스트에서 기록된 전체 성능 점수로 INT8 양자화가 적용된 모델의 성능
총 소요 시간 (Overall Time Taken): 519.524초
8장의 이미지를 생성하는 데 걸린 총 시간
이미지 생성 속도 (Image Generation Speed): 64.940초/이미지
이미지 한 장을 생성하는 데 평균적으로 소요된 시간
INT8 양자화는 정밀도를 줄이는 대신 처리 속도를 높이는 기술로, 이번 결과에서 효율적인 성능(481점)과 적절한 이미지 생성 속도(64.94초/이미지)를 보여주었다. 총 생성 시간은 519.524초로, 8장의 이미지를 생성하는 데 소요된 시간이며, 이는 대규모 이미지 생성 작업에서는 여전히 개선이 필요함을 나타낸다. INT8 기반 모델은 비교적 짧은 생성 시간과 적절한 성능으로 중간 규모의 AI 이미지 생성 작업에 적합하며, OpenVINO의 최적화를 통해 Intel 하드웨어에서 효율적으로 작동할 수 있다.
ㄷ. Text Generation Benchmark
자연어 처리(NLP) 성능과 텍스트 생성 효율성 확인
Phi : 종합 점수가 가장 높고(173), 첫 토큰 생성 시간도 가장 짧아 초기 응답성이 우수
Mistral : 종합 점수 132로, Phi에 비해 다소 낮음
Llama3 : 종합 점수 127로, Mistral보다 약간 낮음
Llama2 : 모든 지표가 0으로 기록, 테스트 불가 판정
기획, 편집, 글 / 다나와 홍석표 hongdev@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com
Who is next?
삼성전자 갤럭시북5 프로 NT940XHA-K51A (SSD 256GB) |
|
MSI GF시리즈 소드 GF76 A AI B8VF-R7 (SSD 512GB) |
|
|
|
NPU : 코어 울트라5(S2) TOPS : 40 TOPS GEEKBENCH AI : - PROCYON AI : - |
NPU : 라이젠7(Zen4) TOPS : 16 TOPS GEEKBENCH AI : - PROCYON AI : - |