CONTACT

HANA UNITE Ind.Co.,Ltd.

‘DeepSeekR1’이 오픈

페이지 정보

profile_image
작성자 test
조회 10회 작성일 25-03-19 05:08

본문

특히,딥시크(DeepSeek)의 ‘DeepSeekR1’이 오픈소스 기반의 강력한 추론 능력을 선보이며 업계를 뒤흔들었다.


이에 엔비디아는 Llama 기반의 Nemotron 모델을 통해 경쟁력을 확보하고, 비즈니스 환경에서 활용 가능한 고차원 AI 솔루션을 제공하려는 전략을 내세웠다.


https://kbsf.or.kr/


엔비디아 측은 “에이전트형 AI는.


딥시크R15% 규모로 우수한 성능 한국어에 강점… 수능 최고점 달성 경량 모델도 오픈AI o1-mini 능가 젠슨 황, 추론 AI 소프트웨어 공개 LG AI연구원이 자체 개발한 추론 인공지능(AI) ‘엑사원 딥’을 오픈소스로 공개했다.


우리나라에서 추론 AI가 오픈소스로 공개된 건 처음이다.


중국에선 지난 1월딥시크가R1을 선보였고, 알리바바는 지난 6일(QwQ), 바이두는 16일(어니 X1) 추론 AI를 공개했다.


LG AI연구원은 “AI 에이전트는 스스로 가설을 세우고 이를 검증하기 위한 추론 과정을 통해 자율적으로 의사결정을 할 수 있는 능동적인 AI”라며 “이를 구현하기 위해 추론 AI 개발이.


딥시크황 CEO는 중국 AI 스타트업딥시크의 AI인R1에 대해서도 긍정적인 평가를 내렸다.


딥시크는 이른바 증류기술을 활용해 오픈AI 등의 AI 핵심 기술을 도용했다는 의심을 받고는 있지만 훨씬 적은 비용으로 고성능 AI 구축이 가능하다는 점을 입증했다.


엔비디아의 고가, 고성능 반도체가 AI 구축에.


●딥시크보다 경량화하고도 비슷한 성능 LG AI연구원이 공개한 ‘엑사원 딥 32B’는 매개변수가 320억 개로딥시크R1(매개변수 6710억 개)의 5% 정도다.


하지만 AI가 발휘하는 성능은 비슷한 것으로 측정됐다.


매개변수는 뇌에서 뉴런을 이어주는 정보 전달망 시냅스와 비슷한 역할을 한다.


딥시크-R1은 매개변수가 6710억개다.


엑사원 딥-32B는딥시크-R1의 약 5%에 불과하지만 성능은 이에 필적한다.


실제 딥시크·알리바바 등 주요 추론형 모델과 성능을 비교한 결과, 엑사원 딥-32B는 특히 수학에서 뛰어난 결과를 보였다.


2024년 미국 수학 올림피아드 문제에서는 90점으로딥시크-R1(86.


이는딥시크R1(6710억개)의 0.


MS는 “문서 이해, 표 해석, 과학적 추론 작업에서 탁월한 성능을 발휘한다”며 “낮은 컴퓨터 사양, 적은 비용이 특징인 만큼 산업 전반에서 활용되길 기대한다”고 했다.


그동안 AI 인프라 구축에 막대한 비용을 쏟아부어온 미국 빅테크들이 ‘가성비 AI’를 속속.


특히 엑사원 딥-32B는딥시크R1(6710억 개 매개변수)의 5% 수준 매개변수로도 글로벌 최고 수준 성능을 달성했다.


2025학년도 수능 수학 영역에서 94.


5점을 기록했으며, 과학 문제 해결력과 코딩 능력에서도 우수한 성적을 거뒀다.


LG AI연구원은 미국 AI 연구기관 에포크(Epoch) AI의 주목할 만한 AI 모델.


미국 추격 중국 빅테크 지난 1월 저비용·고성능의딥시크R1모델 등장 이후 중국 테크 경쟁력에 대한 재평가가 이뤄지고 있다.


중국 최대 인터넷 검색 업체 바이두는 지난 16일딥시크에 맞먹는 추론 모델인 ‘어니 X1’, 이미지·영상 등을 인식하는 ‘어니 4.


딥시크의R1과 같은 추론형 AI 모델 ‘어니(Ernie) X1’과 대규모 언어모델(LLM) ‘어니 4.


5’는 가격 경쟁력을 무기로 내세웠다.


어니 X1은딥시크의 절반, 어니 4.


5는 오픈AI의 최신 모델 GPT 4.


5의 100분의 1 수준으로 가격을 책정했다.


5가 텍스트 생성 측면에서 GPT 4.


5보다 성능이 우수하다는 평가.