LG AI Exaone deep 사용 후기

Min Jae Cho·2025년 3월 23일
0

최근에 LG AI Research 에서 나온 모델인 Exaone 3.5가 있었다.
그리고 얼마전에 또 추론이 가능한 모델로 Exaone deep 이 출시 되었다.


출처: https://www.lgresearch.ai/exaone

모델 파라미터 수는 2.4B, 7.8B, 32B가 있었다.
내가 가지고 있는 환경에서, 돌릴 수 있는 거는 2.4B랑 7.8B는 무리없이 돌릴 수 있지만, 32B 모델의 경우에는 양자화가 필요하다.

ModelsMATH-500 (pass@1)AIME 2024 (pass@1/cons@6)AIME 2025 (pass@1/cons@6)CSAT Math 2025 (pass@1)GPQA Diamond (pass@1)Live Code Bench
EXAONE Deep 32B79.572.1 / 90.073.7 / 92.684.566.159.5
DeepSeek-R1-Distill-Qwen-32B71.371.2 / 89.368.5 / 89.283.465.956.3
QwQ-32B68.963.2 / 85.965.3 / 87.681.062.554.8
DeepSeek-R1 (671B)74.367.6 / 86.766.4 / 86.283.162.953.7
EXAONE Deep 7.88B49.470.0 / 83.959.6 / 76.774.259.747.6
DeepSeek-R1-Distill-Qwen-7B49.763.5 / 78.556.4 / 73.866.352.646.9
DeepSeek-R1-Distill-Llama-8B47.164.6 / 80.059.3 / 76.465.752.245.9
OpenAI-1 mini46.961.3 / 77.159.3 / 74.964.250.144.8
EXAONE Deep 2.48B29.259.3 / 72.337.3 / 64.956.739.232.1
DeepSeek-R1-Distill-Qwen-1.5B28.455.1 / 70.034.3 / 62.552.238.929.7

성능은 아주 준수하게 나온다. 물론 특정 분야긴 하지만, 그래도 엄청 높은 수준이라는 것은 확실하다.
도표출처: https://github.com/LG-AI-EXAONE/EXAONE-Deep?tab=readme-ov-file
https://www.youtube.com/@AZisk 의 유튜브를 참고해보면
https://llm-inference-calculator-rki02.kinsta.page/ llm 을 돌릴 수 있는 Vram을 계산해주는 홈페이지가 있다.

32B 모델을 돌리기에 FP16(Mac 환경이기 때문)으로는 약간 모자라다. 그래서 Q8 정도로 양자화를 진행하고, 해당 모델을 llama.cpp를 이용해서, ollama에 설치하고, open-webui에 올려 사용해보는 후기를 올리도록 하겠다.

일단 양자화의 경우에는 허깅페이스를 확인해보니,

이미 양자화가 되어있느 gguf 파일들이 있어서, 그냥 Q8 모델을 다운받아서 진행했습니다.

그리고 현재 글 작성 시점에는 ollama에 exaone-deep이 출시가 되어있습니다.

https://ollama.com/library/exaone-deep

제가 진행할 때에는 없어서 직접 다운받아서 했는데, 새로 하실분들은 ollama에서 사용하실거라면 해당 사이트에서 하시는게 편할 것 같습니다.

아무튼 제가 진행한건 이제, Q8로 양자화된 모델을 llama.cpp 이용해서 사용하는 방식이었습니다.

이제 open-webui에서 사용을 해보면,


좋은 것 같다. 속도야 뭐 필자가 mac 환경이라 느린 부분이 있으니까 어쩔 수 없고, 모델 문제는 아니다.
아무튼 한국에서 출시한 모델인 만큼 한국어도 잘 하는 느낌이 들고, 여러 분야에서 사용하기 좋을 것 같다는 생각이다.

profile
A.I. Engineer

0개의 댓글