지난 주요뉴스 한국경제TV에서 선정한 지난 주요뉴스 뉴스썸 한국경제TV 웹사이트에서 접속자들이 많이 본 뉴스 한국경제TV 기사만 onoff
트릴리온랩스, 국내 최초 ‘확산 기반 트랜스포머 아키텍처’ 모델 개발 성공 2026-01-29 16:37:26
21B, 70B 모델을 출시하며 한국 기업 최초의 프론티어급 모델 구축 및 전 세계 최초 학습 체크포인트 공개라는 기록을 세웠다. 이러한 독보적 기술력을 인정받아 정부의 국가전략기술 보유 기업으로 선정되었으며 현재 과학기술정보통신부 주관 'AI 특화 파운데이션 모델 프로젝트'를 통해 미국의 '제네시스...
모티프 이어 트릴리온랩스도 독자AI 패자부활전 도전한다(종합2보) 2026-01-20 16:03:56
지난해 9월 700억개(70B) 파라미터 규모의 LLM '트리(Tri)-70B'를 개발했다고 이 관계자는 소개했다. 트릴리온랩스는 지난해 7월 1차 공모 당시에는 의료 AI 기업 루닛이 주관한 컨소시엄으로 참여했으나 예비 심사에서 탈락했다. 모티프테크놀로지스와 트릴리온랩스가 패자부활전 참가를 공식화한 가운데 다른 AI...
[AI픽] SKT, 초거대 AI 모델 'A.X K1' 30일 공개 2025-12-28 11:17:30
초거대 모델 단계부터는 단순히 지식을 소비하는 모델이 아니라 70B 급 이하 모델들에 지식을 공급하는 '교사 모델'로서 AI 생태계를 지탱하는 디지털 사회간접자본(SOC) 역할을 수행할 수 있다. SKT는 "B2C, B2B 양방향 확산으로 국민 생활과 산업 혁신을 주도할 것"이라며 "SK하이닉스[000660] 등 주요 관계사 및...
[단독 인터뷰] '토종 AI 칩' 리벨리온 수장 "엔비디아와 격차부터 인정해야" [강해령의 테크앤더시티] 2025-09-27 13:08:36
않았다는 의미다. AI 칩 회사는 제품을 소개할 때 거대한 70B AI 모델 크기를 돌릴 수 있다는 것만 말하면 절대 안된다. AI 모델 속 파라미터를 어느정도로 경량화했는지까지 설명할 수 있어야 한다. W8A16은 현재 일반적인 LLM 모델에서 활용되는 수치다. 물론 파라미터 크기를 정말 미친듯이 압축하고 경량화해서 2비트,...
엔비디아 대항마 국내에서 나왔다…'AI칩 끝판왕' 선언 [강해령의 테크앤더시티] 2025-08-21 07:21:39
강조했습니다. 일단 테스트를 진행한 AI 모델은 메타의 '라마3 70B'이고, 128미만의 배치사이즈를 적용했다고 하고요. 리벨 쿼드와 함께 비교된 경쟁사 제품은 엔비디아 GPU, 미국 AI 칩 회사인 그로크의 제품인 것으로 추정됩니다. 그로크는 '언어처리장치(LPU)'라는 칩을 만드는 스타트업입니다. 이 회...
트릴리온랩스, 처음부터 사전 학습한 자체 LLM모델 오픈소스 공개 2025-07-23 14:32:23
통해 70B급 대형 모델의 성능을 21B에 효과적으로 전이해 모델 사이즈와 비용, 성능 간 균형에서 이상적인 구조를 구현했다”며 “이번 모델처럼 바닥부터 사전학습으로 개발한 고성능 LLM을 통해 비용 효율성과 성능 개선을 빠르게 달성하여 한국 AI 기술력의 완성도를 높이고, 향후 공개될 트리(Tri)-70B와 함께 풀사이즈...
업스테이지, '솔라 프로2' 프리뷰 공개…"한국어 성능 최강" 2025-05-20 09:27:52
업스테이지 대표는 "솔라 프로2는 31B(310억개)라는 효율적인 규모로도 70B(700억개) 모델 수준의 성능을 구현한다"며 "최고 추론 성능과 뛰어난 한국어 성능을 갖춘 이번 모델을 통해 더 많은 업무 혁신을 기대한다"고 전했다. hyunsu@yna.co.kr (끝) <저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
"AI의 과학논문 요약 믿을 수 없어…과도한 일반화 편향 많아" 2025-05-14 09:34:30
챗GPT-4.5(ChatGPT-4.5), 딥시크(DeepSeek), 라마 3.3 70B(LLaMA 3.3 70B), 클로드 3.7 소네트(Claude 3.7 Sonnet) 등 챗봇 10개가 네이처(Nature), 사이언스(Science), 랜싯(Lancet) 등 과학·의학 저널에 게재된 초록 및 논문 전문을 얼마나 정확히 요약하는지 평가했다. 4천900개의 LLM 생성 요약문을 분석한 결과 10개...
장정훈 "딥시크보다 와이즈넛 AI 모델이 독해력·정확성·포괄성 뛰어나죠" 2025-02-26 16:03:10
R1 70B모델과 와이즈넛의 LLM 70B모델을 자체 테스트한 결과다. 장 CTO는 딥시크의 등장에 대해 ‘가성비 좋은’ AI 모델이 확산되는 현상으로 분석했다. 그는 “대규모 언어모델의 학습 비용 절감, 추론에 특화된 엔지니어링 기법, 성능 좋은 경량 모델을 만드는 기술 등이 효과가 있음이 입증됐다”며 “글로벌 빅테크의...
투플랫폼 AI 'SUTRA-R0' 출시…"한국어 딥시크·라마보다 잘해" 2025-02-12 11:09:03
실험) 테스트에서 오픈AI의 o1-미니, 딥시크 R1, 메타의 라마 3.3 70B 등을 능가하는 성능을 기록했다는 설명이다. 투플랫폼은 SUTRA-R0가 한국어 성능에서도 딥시크 R1, 라마 3.3 70B 모델을 앞질렀다고 밝혔다. 전 모델인 SUTRA는 낮은 사양의 그래픽처리장치(GPU)로도 구동할 수 있어 한국 금융 기업, 인도의 대형 소매...