하드웨어 > 벤치마크

LG Gram15 | 15ZD90RU-GX54K (15.6/FHD/i5-1334U/16GB/Iris Xe/256GB) [AI 벤치마크]

/ 1

다나와 AI 벤치마크 에 오신 것을 환영합니다!

AI 벤치마크 은 PC 주요부품 및 노트북의 AI 처리 성능을 세부적으로 분석한 콘텐츠입니다. 데이터 측정에 이용한 프로그램은, 바일 및 PC 환경에서 폭넓게 활용하는 '긱벤치(Geekbench) AI'와 3D MARK로 유명한 UL사의 '프로키온(Procyon) AI'입니다.




AI Benchmark LAB

by danawa 


external_image

 

● Geekbench AI 

1. 이미지 분류: 입력 이미지 카테고리 예측 / 이미지 세분화: 픽셀 단위로 객체 분류

2. 포즈 추정: 인체 관절 위치를 예측 / 객체 탐지: 체의 위치와 분류를 탐지 / 얼굴 인식: 얼굴 위치 탐지

3. 깊이 추정: 깊이감 있는 맵 생성

4. 이미지 초해상도: 저해상도를 고해상도로 변환 /  : 이미지 스타일 변환

5. 텍스트 분류: 텍스트 감정 분석 / 기계 번역: 영어를 프랑스어로 번역


● Procyon AI

1. Computer Vision Benchmark: 이미지 분류와 객체 인식 등 컴퓨터 비전 작업 성능 확인

2. AI Image Generation: 텍스트 기반 이미지 생성의 처리 속도와 품질 확인

3. AI Text Generation Benchmark: 자연어 처리(NLP) 성능과 텍스트 생성 효율성 확인




1. 측정 제품 : LG Gram15 15ZD90RU-GX54K


external_image



첫 번째 벤치마크 대상은 LG전자 그 15 15ZD90RU-GX54K. 기존 그램 시리즈를 잇는 초경량 노트북으로 CPU는 13세대 인텔 코어 i5-1334U 10코어(2P+8E)를 채택했다. 전력효율이 좋고 멀티태스킹 성능도 두루 사용할 수 있는 수준. 그래픽은 인텔 iRIS Xe 내장그래픽을 탑재했다. 저장장치로 NVMe SSD를 기본 장착, 추가 M.2 슬롯을 통해 용량을 확장할 수 있다. 80Wh 대용량 배터리로 한 번 충전이면 하루 종일 사용할 수 있어 이동이 잦은 사용자에게 이상적인 노트북. 물론 65W USB-PD 어댑터라면 빠른 충전도 가능하다.



2. Geekbench AI 측정


NPU, CPU, GPU 등  서가 AI 작업에서 얼마나 효율적으로 작동하는지 파악하기 위해 OpenVINO와 ONNX를 사용한다. OpenVINO(Open Visual Inference and Neural network Optimization)는 Intel에서 개발한 AI 모델 최적화 및 추론 툴킷으로, 다양한 플랫폼에서 딥러닝 모델의 성능을 극대화하는 데 사용된다. ONNX(Open Neural Network Exchange)는 AI 모델의 프레임워크 간 호환성을 제공하는 개방형 표준 형식이다.


ㄱ. CPU Score

external_image


인텔 코어 i5-13세대의 성능은 위와 같다. (i5-1334U)/1.3GHz/10코어(2P+8E)


ㄴ. DirectML Score

external_image


DirectML은 GPU 가속 딥러닝을 지원하는 API로, Windows 환경에서 딥러닝 모델의 추론 속도와 효율성을 높이는 데 사용된. 해당 점수는 로 이미지 분류, 객체 탐지, 스타일 전환 등 다양한 AI 작업을 실행할 때의 처리 성능을 기준으로 평가한다. 점수가 높을수록 해당 하드웨어가 DirectML을 통해 AI 작업을 더 빠르고 효율적으로 처리할 수 있음을 의미한.


ㄷ. GPU Score

external_image


GPU는 인텔 내장그래픽 Iris Xe를 사용한다.




4. Procyon AI


ㄱ. Computer Vision Benchmark

external_image

external_image


텍스 기반 이미지 생성의 처리 속도와 품질 확인

GPU Float16 : 복잡한 작업(REAL-ESRGAN)서 상대적으로 우수한 성능

GPU Float32 : GPU 기반 Float32 정밀도는 다양한 작업에서 안정적인 성능을 보여줌

                       YOLO V3, DeepLab V3 등에서 균형 잡힌 결과

GPU Integer : GPU Integer 연산은 MobileNet V3에서 상대적으로 느림 (27.72ms), 종합 점수(33) 낮음


CPU Float16 : CPU Float16 정밀도는 전반적으로 성능이 낮음, 복잡한 작업에서 매우 긴 추론 시간을 기록

CPU Float32 : MobileNet V3에서 빠른 추론 시간을 기록 (2.18ms), 복잡한 작업(REAL-ESRGAN) 긴 시간 소요

CPU Integer : CPU 기반 정수(Integer) 연산은 MobileNet V3에서 가장 빠름 (1.62ms)

                      REAL-ESRGAN에서 매우 긴 처리 시간(10171.42ms)을 기록


ㄴ. Image Generation Benchmark 

총 점수 (Overall Score): 481

 테스트에서 기록된 전체 성능 점수로 INT8 양자화가 적용된 모델의 성능

총 소요 시간 (Overall Time Taken): 519.524초

 8장의 이미지를 생성하는 데 걸린 총 시간

이미지 생성 속도 (Image Generation Speed): 64.940초/이미지

 이미지 한 장을 생성하는 데 평균적으로 소요된 시간


INT8 양자화는 정밀도를 줄이는 대신 처리 속도를 높이는 기술로, 이번 결과에서 효율적인 성능(481점)과 적절한 이미지 생성 속도(64.94초/이미지)를 보여주었다. 총 생성 시간은 519.524초로, 8장의 이미지를 생성하는 데 소요된 시간이며, 이는 대규모 이미지 생성 작업에서는 여전히 개선이 필요함을 나타낸다. INT8 기반 모델은 비교적 짧은 생성 시간과 적절한 성능으로 중간 규모의 AI 이미지 생성 작업에 적합하며, OpenVINO의 최적화를 통해 Intel 하드웨어에서 효율적으로 작동할 수 있다.



ㄷ. Text Generation Benchmark 

external_image


external_image


자연어 처리(NLP) 성능과 텍스트 생성 효율성 확인

Phi : 종합 점수가 가장 높고(173), 첫 토큰 생성 시간도 가장 짧아 초기 응답성이 우수

Mistral : 종합 점수 132로, Phi에 비해 다소 낮음

Llama3  : 종합 점수 127로, Mistral보다 약간 낮음

Llama2 : 모든 지표가 0으로 기록, 테스트 불가 판정




기획, 편집, 글 / 다나와 홍석표 hongdev@cowave.kr

(c) 비교하고 잘 사는, 다나와 www.danawa.com



Who is next?

삼성전자 갤럭시북5 프로

NT940XHA-K51A (SSD 256GB)


MSI GF시리즈 소드

GF76 A AI B8VF-R7 (SSD 512GB)

external_image

https://prod.danawa.com/info/?pcode=73614713


external_image

https://prod.danawa.com/info/?pcode=49995944&

NPU : 코어 울트라5(S2)

TOPS : 40 TOPS

GEEKBENCH AI : -

PROCYON AI : -

NPU : 라이젠7(Zen4) 

TOPS : 16 TOPS

GEEKBENCH AI : -

PROCYON AI : -


이 기사가 마음에 드셨다면 공유해 주세요
게임잡지
2000년 12월호
2000년 11월호
2000년 10월호
2000년 9월호 부록
2000년 9월호
게임일정
2025
07