지난 주요뉴스 한국경제TV에서 선정한 지난 주요뉴스 뉴스썸 한국경제TV 웹사이트에서 접속자들이 많이 본 뉴스 한국경제TV 기사만 onoff
"SK하이닉스, 내년 HBM 매출 20조 웃돌 듯…AI 최대 수혜주'-KB 2024-08-21 07:54:36
H200 수요가 견조한 가운데 엔비디아가 4분기 출시 예정인 블랙웰 플랫폼에서 HBM3E 주문이 급증하고 있고, 최근 M7 중심의 빅테크 업체들도 맞춤형 HBM3E 수요가 크게 늘고 있다"고 말했다. 올 4분기 HBM 생산능력이 1분기 대비 2.5배 증설돼도 이미 완판된 HBM의 공급부족은 하반기에 심해질 것이란 게 그의 의견이다. 김...
"삼성 잡아라" 10조 베팅한 SK…삼성도 반격 나섰다 [황정수의 반도체 이슈 짚어보기] 2024-08-17 13:27:43
고용량 제품에 대한 수요가 크게 증가했다"며 "엔비디아의 H100, H20, H200 시리즈 AI 가속기가 출시되면서 이를 뒷받침하는 고용량 SSD에 대한 주문이 늘었다"고 설명했다. 시장조사업체 트렌드포스는 최근 "올해 AI 서버용 SSD 조달 용량이 45엑사바이트(EB,1EB=104만8576GB)를 초과할 것"이라며 "향후 수년간 AI 서버의...
"엔비디아, 내년 HBM3E 소비점유율 85% 이상…12단 제품에 집중" 2024-08-08 18:14:32
것이라는 전망이 나왔다. 8일 시장조사기관 트렌드포스는 "엔비디아의 H200 출하로 인해 올해는 HBM3E 소비점유율이 60% 이상으로 높아질 것"이라며 "내년에는 블랙웰 플랫폼에서 HBM3E의 포괄적인 채택, 제품 레이어의 증가, 단일 칩 HBM 용량의 증가로 엔비디아의 HBM3E 소비가 85% 이상으로 커질 것"이라고 전망했다. 특...
삼성이 부인한 'HBM3E 통과'…12단 공급이 변수 2024-08-07 17:30:58
있는 것으로 알려졌습니다. 엔비디아는 지난해 공개한 하이엔드 H200부터 HBM3E를 탑재합니다. 출시 지연 논란이 있는 블랙웰 시리즈가 내년부터 본격 시장에 공급될 예정인데요. 여기에는 HBM3E와 8단과 12단 제품이 적용됩니다. 엔비디아 GPU 수요가 계속되는 한 삼성전자의 HBM 공급은 이뤄질 수밖에 없고, HBM 수급과...
삼성 "HBM3E 아직 테스트 중"…4분기 공급은 유력 2024-08-07 14:41:50
있는 것으로 알려졌습니다. 엔비디아는 지난해 공개한 하이엔드 H200부터 HBM3E를 탑재합니다. 출시 지연 논란이 있는 블랙웰 시리즈가 내년부터 본격 시장에 공급될 예정인데요. 여기에는 HBM3E와 8단과 12단 제품이 적용됩니다. 엔비디아 GPU 수요가 계속되는 한 삼성전자의 HBM 공급은 이뤄질 수밖에 없고 HBM 수급과 ...
"반도체 공포 과도"…AI 메모리 수요는 여전 2024-08-06 17:31:08
주력 제품인 2년 전 선보인 H100과 지난해 공개한 하이엔드용 H200입니다. 각각 HBM3와 HBM3E가 탑재되기에 여전히 AI 메모리 수요는 지속됩니다. <앵커> 삼성전자와 SK하이닉스가 올해 하반기 HBM3E 공급 비중을 굉장히 높게 설정했잖아요. 문제가 발생한 제품이 아니더라도 고부가가기치인 HBM3E 탑재에는 영향이...
인텔, 50년 만에 최대 하락폭 [美증시 특징주] 2024-08-05 08:16:28
및 H200 칩이 탑재될 예정이라고 했습니다. FSD와 옵티머스를 위한 학습에 사용될 전망입니다. 현지시간 2일 블룸버그는, 지난달 테슬라의 중국 판매 실적이 회복세를 보였다고 전했습니다. 테슬라 상하이 공장의 출하량은 전년비 15.3% 증가했고 전월비로는 4.6% 늘었습니다. 앞서 테슬라는 중국에서 지난 6월까지 3개월...
서학개미 초비상…엔비디아 신형 AI칩 '블랙웰' 샘플 결함설 [황정수의 반도체 이슈 짚어보기] 2024-08-03 14:23:58
가속기는 현재 주력 제품인 'H100', 'H200'의 뒤를 이어 마이크로소프트(MS), 구글, 메타 등 고객사에 수백억달러 어치를 납품될 예정이었다. 엔비디아 AI 칩 만드는 TSMC에서 설계 결함 발견3일(현지 시간) 미국의 정보기술(IT) 전문지 '디인포메이션'은 AI 생산에 정통한 익명의 관계자 두 명을...
ETF로 접근하는 AI 투자…국내외 수익률 톱 펀드는 2024-08-01 09:48:19
엔비디아의 데이터센터 GPU(H100· H200·블랙웰 등)는 거대언어모델(LLM) 방식의 생성형 AI 모델을 훈련하도록 설계된 칩으로 대형 빅테크 기업들이 경쟁적으로 도입하고 있다. 하지만 공급을 넘어선 수요가 지속됨에 여전히 기존 모델에 대한 수요가 이어지고 가격도 높아 칩 확보가 쉽지 않은 상황이다....
삼성전자 HBM3E 승인 임박설…주가는 '무덤덤' [장 안의 화제] 2024-07-16 15:54:46
그리고 H200부터는 5세대 HBM이 6개가 들어갑니다. 이제 여기 이후에 블랙웰 버전에 같은 경우는 5세대 HBM이 8개가 들어가게 되고요. 그리고 이후에 젠슨왕이 컴퓨텍스 2024에서 루빈 기반의 차차기 AI 반도체를 공개를 했습니다. 루빈 기반에서는 6세대 HBM4가 들어가는데 여기에 8개가 들어가고 루빈의 울트라 버전에는...